JP6981533B2 - 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法 - Google Patents

細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法 Download PDF

Info

Publication number
JP6981533B2
JP6981533B2 JP2020507194A JP2020507194A JP6981533B2 JP 6981533 B2 JP6981533 B2 JP 6981533B2 JP 2020507194 A JP2020507194 A JP 2020507194A JP 2020507194 A JP2020507194 A JP 2020507194A JP 6981533 B2 JP6981533 B2 JP 6981533B2
Authority
JP
Japan
Prior art keywords
image
cell image
cell
removal target
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020507194A
Other languages
English (en)
Other versions
JPWO2019180848A1 (ja
Inventor
渉 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Publication of JPWO2019180848A1 publication Critical patent/JPWO2019180848A1/ja
Application granted granted Critical
Publication of JP6981533B2 publication Critical patent/JP6981533B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • G01N33/4833Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • G06T5/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Description

本開示は、機械学習に用いられる教師データを自動で生成するための技術に関する。
再生医療分野では、近年、iPS(Induced Pluripotent Stem)細胞やES(Embryonic Stem)細胞等の多能性幹細胞を用いた研究が盛んに行われている。こうした多能性幹細胞を利用した再生医療の研究・開発においては、多能性を維持した状態の未分化の細胞を大量に培養する必要がある。そのため、適切な培養環境の選択と環境の安定的な制御が必要であるとともに、培養中の細胞の状態を高い頻度で確認する必要がある。たとえば、細胞コロニー内の細胞が未分化状態から逸脱すると、この場合、細胞コロニー内にある全ての細胞は分化する能力を有しているために、最終的にはコロニー内の細胞全てが未分化逸脱状態に遷移してしまう。そのため、観察者は培養している細胞中に未分化状態を逸脱した細胞(すでに分化した細胞や分化しそうな細胞、以下「未分化逸脱細胞」という)が発生していないかを日々確認し、未分化逸脱細胞を見つけた場合にはこれを迅速に除去する必要がある。
多能性幹細胞が未分化状態を維持しているか否かの判定は、未分化マーカーによる染色を行うことで確実に行うことができる。しかしながら、染色を行った細胞は死滅するため、再生医療用の多能性幹細胞の判定には未分化マーカー染色を実施することができない。そこで、現在の再生医療用細胞培養の現場では、位相差顕微鏡を用いた細胞の形態的観察に基づいて、観察者が未分化細胞であるか否かを判定するようにしている。位相差顕微鏡を用いるのは、一般に細胞は透明であって通常の光学顕微鏡では観察しにくいためである。
また、非特許文献1に開示されているように、最近では、ホログラフィ技術を用いて細胞の観察画像を取得する装置も実用化されている。この装置は、特許文献1〜4等に開示されているように、デジタルホログラフィック顕微鏡で得られたホログラムデータに対し位相回復や画像再構成等のデータ処理を行うことで、細胞が鮮明に観察し易い位相像(インライン型ホログラフィック顕微鏡(In-line Holographic Microscopy:IHM)を用いていることから、以下「IHM位相像」という)を作成するものである。デジタルホログラフィック顕微鏡では、ホログラムデータを取得したあとの演算処理の段階で任意の距離における位相情報を算出することができるため、撮影時にいちいち焦点合わせを行う必要がなく測定時間を短くすることができるという利点がある。
しかしながら、位相差顕微画像やIHM位相画像において細胞が或る程度鮮明に観察可能であるとしても、観察者が目視で未分化細胞等を正確に判定するには熟練が必要である。また、人間の判断に基づくために判定にばらつきが生じることは避けられない。そのため、こうした従来の手法は多能性幹細胞を工業的に大量生産するのには適さない。
上記課題に対し、細胞の観察画像を画像処理することで細胞の状態を評価する種々の技術が従来提案されている。
たとえば、特許文献5には、所定時間隔てて取得された複数の細胞観察画像からそれぞれ細胞内部構造のテクスチャ特徴量を算出し、その複数の細胞観察画像に対するテクスチャ特徴量の差分や相関値を計算してその時系列変化に基づいて細胞の活性度を判別する方法が記載されている。この方法ではたとえば、時間経過に伴うテクスチャ特徴量の差分値が減少傾向である場合に、その細胞の活性度は減少している等と判断することができる。
特許文献6には、細胞観察画像から取得した複数の指標値を用いてファジィニューラルネットワーク(FNN)解析を実施し、増殖率などの細胞の品質を予測する方法が記載されている。該文献には、細胞観察画像に対する画像処理により求まるテクスチャ特徴量を指標値として利用することも記載されている。
FNN解析の他にも、様々な学習手法を細胞生物学に応用することが提案されている。たとえば、非特許文献2は、全層畳み込みニューラルネットワークFCN(Fully Convolutional Networks)に関する学習手法を開示している。非特許文献3は、FCNを細胞生物学に応用するための手法を開示している。また、非特許文献4は、転移学習に関する学習手法を開示している。
国際特許公開第2017/203718号 国際特許公開第2017/204013号 国際特許公開第2016/084420号 特開平10−268740号公報 特開2010−022318号公報 特開2009−044974号公報
「細胞培養解析装置 CultureScanner CS-1」、[online]、株式会社島津製作所、[平成30年3月14日検索]、インターネット<URL: https://www.an.shimadzu.co.jp/bio/cell/cs1/index.htm> ジョナサン・ロング(Jonathan Long)、ほか2名、「フーリー・コンボリューショナル・ネットワークス・フォー・セマンティック・セグメンテーション(Fully Convolutional Networks for Semantic Segmentation)」、ザ・アイトリプルイー・カンファレンス・オン・コンピュータ・ビジョン・アンド・パターン・リコグニション(The IEEE Conference on Computer Vision and Pattern Recognition)、2015年、pp.3431-3440、(インターネット<URL: https://people.eecs.berkeley.edu/~jonlong/long_shelhamer_fcn.pdf>) Olaf Ronneberger, Philipp Fischer, Thomas Brox、「Convolutional Networks for Biomedical Image Segmentation」、U-Net、[平成30年3月14日検索]、(インターネット<URL: https://arxiv.org/abs/1505.04597>) 神嶌 敏弘、「転移学習」、人工知能学会誌、25巻4号、2010年7月(インターネット<URL: https://jsai.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=7632&file_id=22&file_no=1>)
観察者は、適切な培養環境を維持するために、未分化逸脱細胞や不純物などの除去対象物を観察対象から除去する必要がある。このような除去対象物を機械学習により学習し、顕微鏡が観察対象物を撮影して得られた画像(以下、「細胞画像」ともいう。)から除去対象物を自動で識別することが望まれている。この機械学習を実現するためには、設計者は、大量の細胞画像に対して除去対象物が写っている領域を手動でラベリングし、ラベリング結果を教師データとして準備する必要がある。大量の細胞画像に対するラベリングは大変手間であるため、ラベリングの手間を軽減することが望まれている。
本開示の一例では、機械学習に用いられる教師データを生成することが可能な細胞画像解析装置は、細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている第1細胞画像を取得するための画像取得部と、予め定められた画像処理を実行することで、上記第1細胞画像内から上記除去対象物が写っている除去対象領域を特定し、上記第1細胞画像内の上記除去対象領域の場所を表したラベル画像を上記機械学習の教師データとして生成するための教師データ生成部と、上記第1細胞画像と上記ラベル画像とのセットを上記機械学習に用いる学習データセットとして生成するための学習データセット生成部とを備える。
この開示によれば、細胞画像解析装置は、教師データとしてのラベル画像と、当該ラベル画像の生成元の細胞画像との学習データセットを自動で生成する。このような仕組みが提供されることで、設計者は、学習データを収集する際に細胞画像に対するラベリングを行う必要がなくなる。
本開示の一例では、上記画像取得部は、上記除去対象物の除去後に上記顕微鏡から得られた第2細胞画像をさらに取得する。上記予め定められた画像処理は、上記第1細胞画像と上記第2細胞画像との比較結果から上記除去対象領域を特定することを含む。
この開示によれば、細胞画像解析装置は、除去対象物の除去前後の画像が比較されることで、除去対象物が写っている除去対象領域をより正確に特定することができる。
本開示の一例では、上記予め定められた画像処理は、上記第1細胞画像から上記第2細胞画像を差分した差分画像に基づいて、上記除去対象領域を特定することを含む。
この開示によれば、細胞画像解析装置は、除去対象物の除去前後の画像の差分画像が用いられることで、除去対象物が写っている除去対象領域をさらに正確に特定することができる。
本開示の一例では、上記細胞画像解析装置は、上記第1細胞画像内の予め定められた領域に写る物体を除去するように構成された除去機構をさらに含む。上記予め定められた画像処理は、上記第1細胞画像内の上記予め定められた領域を上記除去対象領域として特定することを含む。
この開示によれば、細胞画像解析装置は、より簡易な方法で、除去対象物が写っている除去対象領域を特定することができる。
本開示の一例では、上記細胞画像解析装置は、上記学習データセット生成部によって生成された複数の学習データセットを用いた機械学習を実行し、画像内から上記除去対象物を識別するための学習モデルを生成する学習モデル生成部と、上記学習モデルに基づいて、上記細胞画像解析装置に入力された入力画像から上記除去対象領域を検出するための検出部とを備える。
この開示によれば、収集された学習データセットから生成された学習モデルが用いられることで、入力画像から除去対象領域が自動で検出される。
本開示の一例では、上記学習モデル生成部によって実行される機械学習は、予め学習された学習モデルの一部または全部を初期モデルとして用いる転移学習を含む。
この開示によれば、細胞画像解析装置は、学習モデル内の各種パラメータを早期に収束させることができる。
本開示の一例では、上記細胞画像解析装置は、上記学習モデル生成部によって生成された複数の学習モデルを格納するための記憶装置と、上記複数の学習モデルから一の学習モデルの選択操作を受け付けるための入力部とをさらに備える。上記検出部は、上記選択操作によって選択された学習モデルに基づいて、上記入力画像から上記除去対象領域を検出する。
この開示によれば、観察者は、除去対象物の種類や用途に合わせて学習モデルを切り替えることができる。
本開示の一例では、上記細胞画像解析装置は、表示部と、上記検出部によって検出された上記除去対象領域を上記入力画像に重畳して上記表示部に表示させるための表示処理部とをさらに備える。
この開示によれば、観察者は、入力画像内における除去対象領域の場所を容易に確認することができる。
本開示の一例では、上記細胞画像解析装置は、上記検出部によって検出された上記除去対象領域の検出結果に基づいて、上記除去対象物を上記顕微鏡の除去機構に除去させるための除去機構制御部を備える。
この開示によれば、除去対象物を探す手間が省かれ、また、除去操作を行う必要がなくなる。
本開示の他の例では、機械学習に用いられる教師データを生成することが可能な細胞画像解析システムは、サーバと、上記サーバと通信可能に構成されている複数の細胞画像解析装置とを備える。上記複数の細胞画像解析装置は、それぞれ、細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている細胞画像を取得するための画像取得部と、予め定められた画像処理を実行することで、上記細胞画像内から上記除去対象物が写っている除去対象領域を特定し、上記細胞画像内の上記除去対象領域の場所を表したラベル画像を上記機械学習の教師データとして生成するための教師データ生成部と、上記細胞画像と上記ラベル画像とのセットを上記機械学習に用いる学習データセットとして生成するための学習データセット生成部と、上記学習データセットを上記サーバに送信するための通信部とを含む。
この開示によれば、サーバは、教師データとしてのラベル画像と、当該ラベル画像の生成元の細胞画像との学習データセットを各細胞画像解析装置から収集することができる。このような仕組みが提供されることで、設計者は、容易かつ大量に学習データセットを収集することができる。
本開示の他の例では、方法は、細胞画像と上記細胞画像内の除去対象領域の場所を表したラベル画像とを受信するステップと、受信した上記細胞画像と上記ラベル画像とを用いて機械学習を行うことにより、細胞画像を入力画像とし、上記入力画像内の除去対象領域の場所を表す画像を出力画像とする学習モデルを生成するステップと、生成した学習モデルを送信するステップとを備える。
この開示によれば、入力画像から除去対象領域を自動で検出するための学習モデルが生成される。
本開示の他の例では、機械学習に用いられる教師データの生成方法は、細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている細胞画像を取得するステップと、予め定められた画像処理を実行することで、上記細胞画像内から上記除去対象物が写っている除去対象領域を特定し、上記細胞画像内の上記除去対象領域の場所を表したラベル画像を上記機械学習の教師データとして生成するステップと、上記細胞画像と上記ラベル画像とのセットを上記機械学習に用いる学習データセットとして生成するステップとを備える。
この開示によれば、教師データとしてのラベル画像と、当該ラベル画像の生成元の細胞画像との学習データセットが自動で生成される。このような仕組みが提供されることで、設計者は、学習データを生成する際に細胞画像に対するラベリングを行う必要がなくなる。
本開示の他の例では、機械学習に用いられる教師データの生成プログラムは、コンピュータに、細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている細胞画像を取得するステップと、予め定められた画像処理を実行することで、上記細胞画像内から上記除去対象物が写っている除去対象領域を特定し、上記細胞画像内の上記除去対象領域の場所を表したラベル画像を上記機械学習の教師データとして生成するステップと、上記細胞画像と上記ラベル画像とのセットを上記機械学習に用いる学習データセットとして生成するステップとを実行させる。
この開示によれば、教師データとしてのラベル画像と、当該ラベル画像の生成元の細胞画像との学習データセットが自動で生成される。このような仕組みが提供されることで、設計者は、学習データを生成する際に細胞画像に対するラベリングを行う必要がなくなる。
本開示の他の例では、機械学習に用いられる教師データの製造方法は、細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている細胞画像を取得する工程と、予め定められた画像処理を実行することで、上記細胞画像内から上記除去対象物が写っている除去対象領域を特定し、上記細胞画像内の上記除去対象領域の場所を表したラベル画像を上記機械学習の教師データとして生成する工程と、上記細胞画像と上記ラベル画像とのセットを上記機械学習に用いる学習データセットとして生成する工程とを備える。
この開示によれば、教師データとしてのラベル画像と、当該ラベル画像の生成元の細胞画像との学習データセットが自動で生成される。このような仕組みが提供されることで、設計者は、学習データを生成する際に細胞画像に対するラベリングを行う必要がなくなる。
第1の実施の形態における学習データセットの生成過程を概略的に表した概念図である。 第1の実施の形態に従う細胞画像解析装置の概略構成を示す図である。 IHM位相像の一例(未分化逸脱細胞コロニー)を示す図である。 第1の実施の形態における機械学習を実現するための機能構成の一例を示す図である。 第1の実施の形態における除去対象物の除去過程を表わす図である。 全層畳み込みニューラルネットワークの構造を表わす概念図である。 学習モデルのデーターベースのデータ構造の一例を示す図である。 表示処理部による表示結果の一例を示す図である。 第1の実施の形態に従う制御装置の主要なハードウェア構成を示すブロック図である。 第1の実施の形態に従うモデル生成装置の主要なハードウェア構成を示すブロック図である。 学習データセットの収集処理を表わすフローチャートである。 収集された学習データセットの学習処理を表わすフローチャートである。 入力画像から除去対象領域を検出する検出処理を表わすフローチャートである。 第2の実施の形態に従う細胞画像解析システムのシステム構成の一例を表わす図である。 第2の実施の形態に従う細胞画像解析システムの機能構成の一例を示す図である。 第2の実施の形態に従うサーバの主要なハードウェア構成を示すブロック図である。
以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。
なお、以下で説明される各実施の形態および各変形例は、適宜選択的に組み合わされてもよい。
[第1の実施の形態]
<1.概要>
観察者は、適切な培養環境を維持するために、未分化逸脱細胞や不純物などの除去対象物を観察対象から除去する必要がある。このような除去対象物を自動で識別するための学習モデルを生成するためには、設計者は、除去対象物が写っている大量の細胞画像を準備するとともに、各細胞画像内の除去対象領域をラベリングしたラベル画像を学習データとして準備する必要がある。本実施の形態に従う細胞画像解析装置1(図2参照)は、このようなラベル画像を教師データとして自動で生成し、当該ラベル画像と細胞画像との学習データセットを出力する。
より具体的には、細胞画像解析装置1は、除去対象領域を特定するための予め定められた画像処理を細胞画像(第1細胞画像)に対して実行することで、当該細胞画像内から除去対象領域を特定し、当該細胞画像内における除去対象領域の場所を表したラベル画像を生成する。その後、細胞画像解析装置1は、当該細胞画像と当該ラベル画像とのセットを機械学習に用いる学習データセットとして出力する。このようにラベル画像が自動で生成されることで、細胞画像に対してラベリングを手動で行う必要が無くなる。
以下では、図1を参照して、学習データセットの生成方法を具体的に説明する。図1は、学習データセットの生成過程を概略的に表した概念図である。
図1には、顕微鏡が細胞などの観察対象物を撮影して得られた細胞画像30,35が示されている。細胞画像30(第1細胞画像)は、除去対象物31の除去前に観察対象物を撮影して得られた画像である。細胞画像35(第2細胞画像)は、除去対象物31の除去後に観察対象物を撮影して得られた画像である。
細胞画像解析装置1は、細胞画像30,35に対して予め定められた画像処理を実行し、除去対象物31を表わしている除去対象領域を特定する。除去対象領域を特定するための予め定められた画像処理は、除去対象物31の除去前の細胞画像30と除去対象物31の除去後の細胞画像35との比較結果から除去対象領域を特定することを含む。
一例として、細胞画像解析装置1は、細胞画像30から細胞画像35を差分した差分画像に基づいて、除去対象領域を特定する。より具体的には、細胞画像解析装置1は、細胞画像30から細胞画像35を差分し、差分画像37を生成する。差分画像37の各画素値は、細胞画像30,35の同一座標の画素値間の差分値に相当する。除去対象物31の除去前の細胞画像30から除去対象物31の除去後の細胞画像35を差分することで、除去対象物31のみが差分画像37において抽出される。
その後、細胞画像解析装置1は、予め定められた閾値に基づいて、差分画像37を二値化処理する。一例として、細胞画像解析装置1は、画素値が予め定められた閾値を超える画素に対して第1値(たとえば、255)を割り当て、画素値が予め定められた閾値以下の画素に対して第2値(たとえば、0)を割り当てる。このような二値化処理により、除去対象領域40Aおよび非除去対象領域40Bをラベリングしたラベル画像40が生成される。典型的には、ラベル画像40のサイズは、細胞画像30のサイズと等しく、ラベル画像40の各画素値は、細胞画像30の対応画素(同一画素)が除去対象領域であるか否かを示す。
細胞画像解析装置1は、細胞画像30内の除去対象物31の場所を表したラベル画像40と、ラベル画像40の生成元の細胞画像30とを関連付け、これらの画像を学習データセット45として生成する。このような学習データセット45が順次生成されることで、学習データセット45が蓄積される。
以上のように、細胞画像解析装置1は、除去対象物31の除去前の細胞画像30と、除去対象物31の除去後の細胞画像35とに基づいて、除去対象領域40Aを特定し、除去対象領域40Aの場所を表したラベル画像40を教師データとして生成する。このようなラベル画像40が自動で生成されることで、設計者は、細胞画像に対するラベリングを行わずに教師データを大量に収集することができる。
なお、上述では、ラベル画像40が二値化画像である前提で説明を行ったが、ラベル画像40は、必ずしも二値化画像である必要はない。一例として、ラベル画像40は、除去対象物の種類に応じてラベリングされてもよい。より具体的には、除去対象物の種類ごとに予め定められた画素値(番号)が割り当てられており、抽出された除去対象領域40Aに対して設計者が除去対象物の種類を指定することにより、当該指定された種類に応じた画素値が除去対象領域40Aに割り当てられる。このような場合には、ラベル画像40の各画素値は、除去対象物31の種別を示すこととなる。
また、上述では、除去対象物31の除去前の細胞画像30と、除去対象物31の除去後の細胞画像35との差分画像37から除去対象領域40Aを特定する例について説明を行ったが、除去対象領域40Aの特定処理は、これに限定されない。一例として、除去対象領域40Aの特定処理は、除去対象物31の除去前の細胞画像30内の予め定められた領域を除去対象領域40Aとして特定してもよい。
より具体的には、顕微鏡の種類によっては、除去機構(たとえば、後述の除去機構17)が設けられているものがある。除去機構の利用態様の一例として、観察者は、スルー画像として写る細胞画像を確認しながら観察対象から除去対象物を探す。観察者は、除去対象物を発見した場合、除去対象物が細胞画像の予め定められた領域(たとえば、真ん中)に写るように観察対象または撮影部を移動し、その上で、細胞画像解析装置1に対して除去操作を行う。除去機構は、除去操作を受け付けたことに基づいて、細胞画像の予め定められた領域に位置する物体を除去する。このような顕微鏡が用いられる場合、除去対象物が写っている場所は、画像ごとに変わらない。この点に着目して、細胞画像解析装置1は、除去操作の受け付けた時またはその直前において撮影された細胞画像35を取得し、その細胞画像35の予め定められた領域を除去対象領域40Aとして特定する。
<2.細胞画像解析装置1の構成>
図2を参照して、本実施の形態に従う細胞画像解析装置1の構成について説明する。図2は、本実施の形態に従う細胞画像解析装置1の概略構成を示す図である。
本実施例の細胞画像解析装置1は、顕微鏡10、制御装置20、ユーザーインターフェイスである入力部25、表示部26、およびモデル生成装置50を備える。
顕微鏡10は、インライン型ホログラフィック顕微鏡(In-line Holographic Microscopy:IHM)であり、レーザダイオードなどを含む光源部11とイメージセンサ12と、除去機構17とを備える。光源部11とイメージセンサ12との間に、細胞コロニー(又は細胞単体)14を含む培養プレート13が配置される。
制御装置20は、顕微鏡10の動作を制御するとともに顕微鏡10で取得されたデータを処理するものであって、撮影制御部21と、ホログラムデータ記憶部22と、位相情報算出部23と、画像作成部24と、細胞画像解析部60と、を機能ブロックとして備える。
通常、制御装置20の実体は、所定のソフトウェアがインストールされたパーソナルコンピュータやより性能の高いワークステーション、あるいは、そうしたコンピュータと通信回線を介して接続された高性能なコンピュータを含むコンピュータシステムである。即ち、制御装置20に含まれる各ブロックの機能は、コンピュータ単体又は複数のコンピュータを含むコンピュータシステムに搭載されているソフトウェアを実行することで実施される、該コンピュータ又はコンピュータシステムに記憶されている各種データを用いた処理によって具現化されるものとすることができる。
また、モデル生成装置50の実体も、所定のソフトウェアがインストールされたパーソナルコンピュータやより性能の高いワークステーションである。通常のこのコンピュータは、制御装置20とは異なるコンピュータであるが、同じであってもよい。つまり、モデル生成装置50の機能を制御装置20に持たせることもできる。
まず、本実施例の細胞画像解析装置1において、細胞に関するセグメンテーションを実施する際に使用される観察画像であるIHM位相像を作成するまでの作業及び処理について述べる。
作業者が細胞コロニー14を含む培養プレート13を所定位置にセットして入力部25で所定の操作を行うと、撮影制御部21は、顕微鏡10を制御して以下のようにホログラムデータを取得する。
即ち、光源部11は、10°程度の微小角度の広がりを持つコヒーレント光を培養プレート13の所定の領域に照射する。培養プレート13及び細胞コロニー14を透過したコヒーレント光(物体光16)は、培養プレート13上で細胞コロニー14に近接する領域を透過した光(参照光15)と干渉しつつイメージセンサ12に到達する。物体光16は、細胞コロニー14を透過する際に位相が変化した光であり、他方、参照光15は、細胞コロニー14を透過しないので該コロニー14に起因する位相変化を受けない光である。したがって、イメージセンサ12の検出面(像面)上には、細胞コロニー14により位相が変化した物体光16と位相が変化していない参照光15との干渉縞による像が形成される。
なお、光源部11及びイメージセンサ12は、図示しない移動機構によってX軸方向及びY軸方向に順次移動される。これにより、光源部11から発せられたコヒーレント光の照射領域(観察領域)を培養プレート13上で移動させ、広い2次元領域に亘るホログラムデータ(イメージセンサ12の検出面で形成されたホログラムの2次元的な光強度分布データ)を取得することができる。
上述したように顕微鏡10で得られたホログラムデータは、逐次、制御装置20に送られ、ホログラムデータ記憶部22に格納される。制御装置20において、位相情報算出部23は、ホログラムデータ記憶部22からホログラムデータを読み出し、位相回復のための所定の演算処理を実行することで観察領域(撮影領域)全体の位相情報を算出する。画像作成部24は、算出された位相情報に基づいてIHM位相像を作成する。こうした位相情報の算出やIHM位相像の作成の際には、特許文献3、4等に開示されている周知のアルゴリズムを用いればよい。なお、位相情報算出部23は、ホログラムデータに基づいて位相情報のほかに、強度情報、擬似位相情報なども併せて算出し、画像作成部24は、これら情報に基づく再生像、つまり強度像や擬似位相像を作成してもよい。
iPS細胞における未分化逸脱細胞コロニーを対象とするIHM位相像の一例を図3に示す。典型的な未分化逸脱細胞の特徴は、「薄く広がる」ことであることが知られており、図3でもこの特徴から、未分化細胞の領域と未分化逸脱細胞の領域とを視認することができる。或る程度の経験を有する作業者であれば、こうした画像を見て未分化細胞の領域と未分化逸脱細胞の領域とを識別することができるものの、大量のIHM位相像について一つずつ目視で識別を行うと、その作業はかなり負担である。また、より識別が難しい画像では、作業者によって識別結果が異なる場合もよくある。これに対し、本実施の形態に従う細胞画像解析装置1では、機械学習法の一つである全層畳み込みニューラルネットワークを用いてIHM位相像に対するセグメンテーションを行うことで未分化細胞領域と未分化逸脱細胞領域との識別を自動的に行うことができる。全層畳み込みニューラルネットワークの詳細については後述する。
除去機構17は、制御装置20からの制御指示に従って、培養プレート13上の予め定められた領域に位置する物体を除去する。除去機構17は、レーザー照射により除去対象物を除去するレーザー機構であってもよいし、吸引により除去対象物を除去する吸引機構であってもよい。レーザー機構としての除去機構17は、近赤外線レーザーを照射し、照射部分の細胞を剥離させることで除去対象物を除去する。吸引機構としての除去機構17は、チップと称されるピペットを有する。顕微鏡10の観察者は、イメージセンサ12の中心上に除去対象物が位置するように培養プレート13またはピペットを移動し、その上で除去対象物を吸引する。
<3.機械学習を実現するための機能構成>
図4〜図8を参照して、機械学習を実現するための主要な機能構成について説明する。図4は、機械学習を実現するための機能構成の一例を示す図である。
図4に示されるように、細胞画像解析装置1は、制御装置20と、モデル生成装置50とを含む。制御装置20は、機能モジュールである細胞画像解析部60と、ハードウェアである記憶装置120とを含む。モデル生成装置50は、機能モジュールである学習処理部51と、ハードウェアである記憶装置220とを含む。
学習処理部51は、機能モジュールとして、画像取得部511と、教師データ生成部512と、学習データセット生成部513と、学習モデル生成部514とを含む。細胞画像解析部60は、設定部601と、検出部602と、表示処理部603と、除去機構制御部604とを含む。
以下では、学習処理部51および細胞画像解析部60の各機能モジュールの機能について順に説明する。
(3.1.画像取得部511)
まず、画像取得部511の機能について説明する。
画像取得部511は、上述の画像作成部24(図2参照)から、少なくとも除去対象物の除去前の細胞画像30を取得する。好ましくは、画像取得部511は、さらに、除去対象物の除去後の細胞画像35を取得する。
図5は、除去対象物の除去過程を表わす図である。より詳細には、図5には、除去対象物31の除去前に得られた細胞画像30と、除去機構17による除去対象物31の除去中に得られた細胞画像33と、除去対象物31の除去後に得られた細胞画像35とが示されている。画像取得部511は、これらの画像の内の、除去対象物の除去前後の細胞画像30,35を取得する。
除去対象物31の除去前であるか否かは、たとえば、観察者が上述の入力部25に対して除去操作を行ったか否かに基づいて判断される。より具体的には、画像取得部511は、上述の入力部25(図2参照)が除去操作を受け付けた時に得られる画像を除去前の細胞画像30として取得する。あるいは、画像取得部511は、入力部25が除去操作を受け付けた直前の所定時間(たとえば、1秒)内に得られる画像を除去前の細胞画像30として取得する。
除去対象物31の除去後であるか否かは、たとえば、除去機構17による除去処理が完了したか否かに基づいて判断される。より具体的には、画像取得部511は、除去機構17による除去処理が完了したことを示す信号を除去機構制御部604から受け付けた時に得られる画像を除去後の細胞画像35として取得する。あるいは、画像取得部511は、除去機構17による除去処理が完了したことを示す信号を除去機構制御部604から受け付けた直後の所定時間(たとえば、1秒)内に得られる画像を除去後の細胞画像35として取得する。
画像取得部511は、除去対象物の除去前後の細胞画像30,35を教師データ生成部512に出力するとともに、除去対象物の除去前の細胞画像30を学習データセット生成部513に出力する。
なお、除去対象物の除去前後の細胞画像30,35の取得方法は、上述の方法に限定されない。たとえば、除去対象物の除去前後の細胞画像30,35は、ユーザー操作によって選択されてもよい。この場合、時系列に並べて表示される細胞画像の中から2つの細胞画像が観察者によって選択されることで、除去対象物の除去前後の細胞画像30,35が取得される。
(3.2.教師データ生成部512)
次に、図4に示される教師データ生成部512の機能について説明する。
教師データ生成部512は、画像取得部511から受けた細胞画像30に対して予め定められた画像処理を実行することで、細胞画像30内から除去対象物が写っている除去対象領域を特定し、当該除去対象領域の位置を表したラベル画像40を教師データとして生成する。ラベル画像40の生成方法については図1で説明した通りであるので、その説明については繰り返さない。
ラベル画像40においては、少なくとも、除去対象領域と、非除去対象領域とが区分される。一例として、除去対象領域を示す画素には、画素値として第1値(たとえば、1〜255のいずれか)が割り当てられる。非除去対象領域を示す画素には、画素値として第2値(たとえば、0)が割り当てられる。
好ましくは、除去対象領域を示す画素には、除去対象物の種類に応じた画素値が割り当てられる。より具体的には、除去対象物の種類ごとに予め定められた画素値(番号)が割り当てられており、設計者が除去対象領域に対して除去対象物の種類を指定することにより、当該指定された種類に応じた画素値が除去対象領域に割り当てられる。
これにより、除去対象物の種類を示した教師データが生成される。このような教師データが機械学習に用いられることにより、除去対象領域の場所を特定するだけでなく、除去対象物の種類を識別することが可能な学習モデルが生成され得る。
教師データ生成部512によって生成されたラベル画像40は、学習データセット生成部513に出力される。
(3.3.学習データセット生成部513)
次に、図4に示される学習データセット生成部513の機能について説明する。
学習データセット生成部513は、画像取得部511によって取得された細胞画像30と、当該細胞画像30から生成された教師データとしてのラベル画像40とを関連付け、これらを学習データセット45として生成する。生成された学習データセット45は、生成される度に記憶装置220に格納される。これにより、学習データセット45が記憶装置220に蓄積される。
好ましくは、学習データセット生成部513は、学習データセット45を記憶装置220に格納する前に、学習データセット45を記憶装置220に格納するか否かを確認するための確認画面を表示する。学習データセット生成部513は、学習データセット45を格納する指示を当該確認画面に対して行われたことに基づいて、学習データセット45を記憶装置220に格納する。そうでない場合には、学習データセット生成部513は、学習データセット45を破棄する。
(3.4.学習モデル生成部514)
次に、図4に示される学習モデル生成部514の機能について説明する。
学習モデル生成部514は、学習データセット生成部513によって生成された複数の学習データセット45を用いた機械学習を実行し、細胞画像内から除去対象物を識別するための学習モデルを生成する。学習モデル生成部514に採用される学習手法は、特に限定されず、たとえば、全層畳み込みニューラルネットワーク(FCN)を含むディープラーニング(深層学習)、サポートベクターマシンなどの種々の機械学習が採用され得る。
以下では、図6を参照して、学習手法の一例として、全層畳み込みニューラルネットワークについて説明する。図6は、全層畳み込みニューラルネットワークの構造の概念図である。全層畳み込みニューラルネットワークの構造や処理の詳細は、非特許文献2を始めとする多くの文献に詳しく説明されている。また、米国マスワークス(MathWorks)社が提供している「MATLAB」などの市販のあるいはフリーのソフトウェアを利用した実装も可能である。そのため、ここでは概略的に説明する。
図6に示すように、全層畳み込みニューラルネットワークは、たとえば畳み込み層とプーリング層との繰り返しが多層化された多層ネットワーク70と、畳み込みニューラルネットワークにおける全結合層に相当する畳み込み層71と、を含む。この場合、多層ネットワーク70では、所定のサイズのフィルタ(カーネル)を用いた畳み込み処理と、畳み込み結果を2次元的に縮小して有効値を抽出するプーリング処理とを繰り返す。但し、多層ネットワーク70は、プーリング層がなく畳み込み層のみで構成されていてもよい。また、最終段の畳み込み層71では、所定のサイズのフィルタを入力画像内でスライドさせつつ局所的な畳み込みおよび逆畳み込みを行う。この全層畳み込みニューラルネットワークでは、IHM位相像などの細胞画像30に対してセグメンテーションを行うことで、除去対象領域および非除去対象領域などをそれぞれラベル付けしたラベル画像39を出力することができる。
ここでは、細胞の培養中に混入する塵埃などのごく微小な異物を識別するために、入力されるIHM位相像の画素単位でのラベル化を行うように多層ネットワーク70および畳み込み層71を設計する。即ち、出力画像であるラベル画像39においてラベル付けされる一つの領域の最小単位は、IHM位相像上の一つの画素である。そのため、たとえばIHM位相像上で1画素程度の大きさの異物が観測された場合でも、ラベル画像39においてその異物は一つの領域として検出され、どこに異物が存在するのかの情報を作業者に正確に提供することができる。
学習モデル生成部514は、学習データセット45に含まれる細胞画像30を全層畳み込みニューラルネットワークに入力し、その結果出力されるラベル画像39を、細胞画像30に関連付けられている教師データとしてのラベル画像40と比較する。学習モデル生成部514は、出力結果としてのラベル画像39が教師データとしてのラベル画像40に近付くように、多層ネットワーク70および畳み込み層71内の各種パラメータを更新する。このような更新処理が全ての学習データセット45について繰り返されることで、多層ネットワーク70および畳み込み層71内の各種パラメータが最適化される。当該最適化された各種パラメータは、学習モデル28として制御装置20に出力される。当該各種パラメータは、たとえば、多層ネットワーク70の畳み込み層で適用される各フィルタの値や重みなどを含む。
生成された学習モデル28は、制御装置20の記憶装置120内のデーターベース27に蓄積される。図7は、データーベース27のデータ構造の一例を示す図である。
データーベース27は、学習モデルを識別するための識別情報27Aと、学習モデルの作成日時情報27Bと、学習モデルの生成元の学習データセットを識別するための識別情報27Cと、学習モデルによる識別対象を規定する識別対象情報27Dなどを含む。
学習モデルの識別情報27Aは、たとえば、学習モデル名やID(Identification)で規定される。学習データセットの識別情報27Cは、たとえば、学習データセットの名前や、学習データセットが格納されているフォルダへのパスなどで規定される。識別対象情報27Dは、細胞名、異物名などで規定される。
なお、学習モデル生成部514によって実行される機械学習には、別の環境で学習された他の学習モデルの一部または全部を初期モデルとして用いる転移学習が用いられてもよい。転移学習とは、ある環境で学習させた学習モデルを、別の環境に適応させるための技術である。
より具体的には、学習モデル生成部514は、別の環境で学習された他の学習モデルの一部または全部を多層ネットワーク70および畳み込み層71内の各種パラメータの初期値として適用し、その上で上述の機械学習を実行する。このような転移学習により、多層ネットワーク70および畳み込み層71内の各種パラメータが早期に収束する。また、学習データセット45が少数である場合であっても、識別精度が高い学習モデルが生成される。
(3.5.設定部601)
次に、図4に示される設定部601の機能について説明する。
設定部601は、データーベース27に規定される学習モデルの中から選択された一の学習モデルを検出部602に設定する。学習モデルの選択操作は、たとえば、上述の入力部25を用いて行われる。
より具体的には、観察者は、学習モデルの設定画面を呼出し、当該設定画面を細胞画像解析装置1の表示部26に表示させる。当該設定画面には、データーベース27に含まれている学習モデルが一覧で表示される。このとき、データーベース27に規定される各種情報が各学習モデルに並べて表示される。当該各種情報は、たとえば、学習モデルの識別情報27A(図7参照)、学習モデルの作成日時情報27B(図7参照)、学習モデルの生成元の学習データセットの識別情報27C(図7参照)と、学習モデルによる識別対象情報27D(図7参照)とを含む。
設計者は、入力部25を操作することにより、一覧表示されている学習モデルの中から一の学習モデルを選択する。設定部601は、学習モデルが選択されたことに基づいて、選択された学習モデルを検出部602に設定する。
このように、観察者は、データーベース27に規定される任意の学習モデルを選択することができる。これにより、観察者は、除去対象物の種類や用途に合わせて学習モデルを切り替えることができる。
(3.6.検出部602)
次に、図4に示される検出部602の機能について説明する。
検出部602は、設定部601によって設定された学習モデル28に基づいて、細胞画像解析装置1に新たに入力された入力画像から除去対象領域を検出する。検出部602は、画像作成部24から順次得られる細胞画像に対して検出処理を都度行ってもよいし、入力画像を走査することで入力画像の各部分について検出処理を行ってもよい。
検出部602は、検出結果として、除去対象領域と非除去対象領域とを区別したラベル画像を出力する。検出結果としてのラベル画像の各画素値が示す意味合いは、設定される学習モデルに応じて変わる。
一例として、除去対象領域および非除去対象領域の2クラスを識別する学習モデルが設定されている場合、検出結果としてのラベル画像の各画素値は、二値で表される。一例として、画素値が「255(または1)」である画素は、除去対象領域としてみなされ、画素値が「0」である画素は、非除去対象領域としてみなされる。
他の例として、除去対象物の種別や非除去対象物の種別など3クラス以上を識別する学習モデルが設定されている場合、検出結果としてのラベル画像の各画素値は、識別されるクラス数に応じた値で表される。すなわち、検出結果としてのラベル画像の各画素値は、クラスの種別を示すこととなる。各クラスと画素値との関係は、予め規定されている。
検出部602による検出結果は、表示処理部603および除去機構制御部604にそれぞれ出力される。
(3.7.表示処理部603)
次に、図4に示される表示処理部603の機能について説明する。
表示処理部603は、検出部602によって検出された除去対象領域を細胞画像解析装置1の表示部26に表示する。図8は、表示処理部603による表示結果の一例を示す図である。
図8(A)には、除去対象領域、非除去対象領域を識別する2クラス分類の学習モデルを入力画像に適用した場合における表示結果80が示されている。表示結果80においては、検出された除去対象領域がマーカー81によって示されている。このように、表示処理部603は、検出部602によって検出された除去対象領域を入力画像に重畳して表示部26に表示させる。
図8(B)には、背景、未分化逸脱細胞、未分化細胞を識別する3クラス分類の学習モデルを入力画像に適用した場合におけるラベル画像84が表示結果85として示されている。表示結果85においては、背景を表わす画像領域86と、未分化逸脱細胞を表わす画像領域87と、未分化細胞を表わす画像領域88とが色分けされている。未分化逸脱細胞を表わす画像領域87が除去対象領域として示され、背景および未分化細胞を表わす画像領域86,88が非除去対象領域として示される。
なお、表示処理部603による表示結果の表示態様は、図8の例に限定されない。たとえば、表示処理部603は、除去対象領域が存在することを示すメッセージを入力画像に重畳させて表示してもよい。
(3.8.除去機構制御部604)
次に、図4に示される除去機構制御部604の機能について説明する。
除去機構制御部604は、検出部602によって検出された除去対象領域の検出結果に基づいて、除去機構17に除去対象物を除去させる。より具体的には、除去機構制御部604は、検出部602によって除去対象領域が検出されたことに基づいて、顕微鏡基準の座標系で示される除去対象領域を、ワールド座標系で示される座標に変換する。顕微鏡基準の座標系からワールド座標系への変換行列は、予め規定されている。除去機構制御部604は、ワールド座標系に変換された除去位置に移動するように除去機構17を駆動し、その上で除去指示を除去機構17に送る。除去機構17は、除去指示を受け付けたことに基づいて、除去処理を開始する。
このように、除去機構制御部604は、検出部602によって検出された除去対象領域の検出結果に基づいて、除去機構17に除去対象物を自動で除去させる。これにより、除去対象物を探す手間が省かれ、また、除去操作を行う必要がなくなる。さらに、このような自動除去の仕組みが提供されることで、細胞の培養時の品質管理を自動化することができる。
<4.ハードウェア構成>
図9および図10を参照して、細胞画像解析装置1に構成する制御装置20およびモデル生成装置50のハードウェアについて順に説明する。
(4.1.制御装置20のハードウェア構成)
まず、図9を参照して、制御装置20のハードウェア構成の一例について説明する。図9は、制御装置20の主要なハードウェア構成を示すブロック図である。
制御装置20は、プロセッサ101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、通信インターフェイス104と、入力インターフェイス105と、表示インターフェイス106と、顕微鏡インターフェイス107と、記憶装置120とを含む。
プロセッサ101は、たとえば、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU(Central Processing Unit)、少なくとも1つのASIC(Application Specific Integrated Circuit)、少なくとも1つのFPGA(Field Programmable Gate Array)、またはそれらの組み合わせなどによって構成される。
プロセッサ101は、顕微鏡10の制御プログラム122など各種プログラムを実行することで制御装置20の動作を制御する。プロセッサ101は、制御プログラム122の実行命令を受け付けたことに基づいて、記憶装置120からROM102に制御プログラム122を読み出す。RAM103は、ワーキングメモリとして機能し、制御プログラム122の実行に必要な各種データを一時的に格納する。
通信インターフェイス104には、LANやアンテナなどが接続される。制御装置20は、通信インターフェイス104を介して、外部の通信機器との間でデータをやり取りする。外部の通信機器は、たとえば、サーバ(たとえば、後述のサーバ300)、その他の通信端末などを含む。制御装置20は、サーバから制御プログラム122をダウンロードできるように構成されてもよい。
入力インターフェイス105は、たとえば、USB(Universal Serial Bus)端子であり、入力部25に接続される。入力インターフェイス105は、入力部25からのユーザー操作を示す信号を受け付ける。入力部25は、たとえば、マウス、キーボード、タッチパネル、またはユーザーの操作を受け付けることが可能なその他の入力デバイスである。
表示インターフェイス106は、表示部26と接続され、プロセッサ101などからの指令に従って、表示部26に対して、画像を表示するための画像信号を送出する。表示部26は、たとえば、液晶ディスプレイ、有機ELディスプレイ、またはその他の表示機器である。表示部26には、たとえば、細胞画像解析装置1の除去対象領域の検出結果、細胞画像解析装置1に対する各種設定画面などが表示される。
記憶装置120は、たとえば、ハードディスクやフラッシュメモリなどの記憶媒体である。記憶装置120は、モデル生成装置50によって生成された学習モデル28、顕微鏡10の制御プログラム122などを格納する。なお、学習モデル28および制御プログラム122の格納場所は、記憶装置120に限定されず、プロセッサ101の記憶領域(たとえば、キャッシュメモリなど)、ROM102、RAM103、外部機器(たとえば、サーバ)などに格納されていてもよい。
(4.2.モデル生成装置50のハードウェア構成)
次に、図10を参照して、モデル生成装置50のハードウェア構成の一例について説明する。図10は、モデル生成装置50の主要なハードウェア構成を示すブロック図である。
モデル生成装置50は、プロセッサ201と、ROM202と、RAM203と、通信インターフェイス204と、入力インターフェイス205と、表示インターフェイス206と、顕微鏡インターフェイス207と、記憶装置220とを含む。これらのハードウェアは、制御装置20の各種ハードウェアと同じであり、上述の図9で説明した通りであるので、以下では、制御装置20と異なる部分についてのみ説明を行う。
記憶装置220は、たとえば、ハードディスクやフラッシュメモリなどの記憶媒体である。記憶装置220は、学習モデル生成のために収集された学習データセット45、学習処理に関する各種処理を実現するための画像解析プログラム222などを格納する。画像解析プログラム222は、学習データセットを生成するための生成プログラムなどを含む。学習データセット45および画像解析プログラム222の格納場所は、記憶装置220に限定されず、プロセッサ201の記憶領域(たとえば、キャッシュメモリなど)、ROM202、RAM203、外部機器(たとえば、サーバ)などに格納されていてもよい。
なお、画像解析プログラム222は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、本実施の形態に従う処理は、任意のプログラムと協働して実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う画像解析プログラム222の趣旨を逸脱するものではない。さらに、画像解析プログラム222によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、制御装置20とモデル生成装置50とが協働して、画像解析プログラム222を実行するように構成されてもよい。
<5.制御構造>
細胞画像解析装置1が実行する学習処理に関する主な処理は、(a)学習データセットの収集処理と、(b)収集した学習データセットを用いた学習処理と、(c)学習処理により生成された学習モデルに基づいて、入力画像から除去対象領域を検出する検出処理とを含む。
これらの処理(a)〜(c)は、制御装置20のプロセッサ101やモデル生成装置50のプロセッサ201がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子またはその他のハードウェアによって実行されてもよい。
以下では、図11〜図13を参照して、上記処理(a)〜(c)について順に説明する。
(5.1.学習データセットの収集処理)
まず、図11を参照して、学習データセットの収集処理のフローについて説明する。図11は、学習データセットの収集処理を表わすフローチャートである。図11に示される収集処理は、たとえば、モデル生成装置50のプロセッサ201によって実現される。
ステップS110において、プロセッサ201は、モデル生成装置50の動作モードが学習データセットの自動収集モードに設定されたか否かを判断する。当該自動収集モードは、たとえば、ユーザー操作に応じて設定される。プロセッサ201は、モデル生成装置50の動作モードが自動収集モードに設定されたと判断した場合(ステップS110においてYES)、制御をステップS120に切り替える。そうでない場合には(ステップS110においてNO)、プロセッサ201は、図11に示される収取処理を終了する。
ステップS120において、プロセッサ201は、顕微鏡10に対する除去操作を検知したか否かを判断する。当該除去操作は、上述の入力部25(図2参照)に対するユーザ操作に基づいて判別される。プロセッサ201は、顕微鏡10に対する除去操作を検知したと判断した場合(ステップS120においてYES)、制御をステップS122に切り替える。そうでない場合には(ステップS120においてNO)、プロセッサ201は、制御をステップS110に戻す。
ステップS122において、プロセッサ201は、上述の画像取得部511(図4参照)として、除去対象物の除去前の細胞画像30と、除去対象物の除去後の細胞画像35とを取得する。細胞画像30,35の取得方法については、上記「3.1.画像取得部511」で説明した通りであるので、その説明については繰り返さない。
ステップS124において、プロセッサ201は、上述の教師データ生成部512(図4参照)として、ステップS122で取得した細胞画像30,35から除去対象領域40Aを特定し、細胞画像内において除去対象領域40Aの場所を表したラベル画像40を教師データとして生成する。ラベル画像40の生成方法については、上記「3.2.教師データ生成部512」で説明した通りであるので、その説明については繰り返さない。
ステップS126において、プロセッサ201は、上述の学習データセット生成部513(図4参照)として、ステップS122で取得した細胞画像30と、ステップS124で生成されたラベル画像40とを機械学習に用いる学習データセット45として生成する。学習データセット45の生成方法については、上記「3.3.学習データセット生成部513」で説明した通りであるので、その説明については繰り返さない。
ステップS122で取得した細胞画像30,35から除去対象領域40Aを特定し、細胞画像内において除去対象領域40Aの場所を表したラベル画像40を教師データとして生成する。ラベル画像40の生成方法については、上記「3.2.教師データ生成部512」で説明した通りであるので、その説明については繰り返さない。
以上のように、図11に示される各ステップの処理が繰り返されることで、学習データセットが蓄積される。
(5.2.学習処理)
次に、図12を参照して、上述の収集処理により収集された学習データセットを学習する処理について説明する。図12は、収集された学習データセットの学習処理を表わすフローチャートである。図12に示される学習処理は、たとえば、モデル生成装置50のプロセッサ201によって実現される。
ステップS210において、プロセッサ201は、学習処理が実行されたか否かを判断する。プロセッサ201は、学習処理が実行されたと判断した場合(ステップS210においてYES)、制御をステップS212に切り替える。そうでない場合には(ステップS210においてNO)、プロセッサ201は、ステップS210の処理を再び実行する。
ステップS212において、プロセッサ201は、記憶装置220に格納されている複数の学習データセットの内から、未学習の学習データセット45を1つまたは複数取得する。
ステップS214において、プロセッサ201は、上述の学習モデル生成部514(図4参照)として、ステップS212で得られた学習データセット45に含まれる細胞画像30を現在の学習モデルに適用する。
ステップS216において、プロセッサ201は、上述の学習モデル生成部514として、ステップS214での適用結果として現在の学習モデルから得られたラベル画像39と、ステップS212で得られた学習データセット45に含まれる教師データとしてのラベル画像40とを比較する。そして、プロセッサ201は、適用結果としてのラベル画像39が教師データとしてのラベル画像40に近付くように、現在の学習モデル内の各種パラメータを更新する。
ステップS220において、プロセッサ201は、記憶装置220に格納されている学習データセットの中に、未学習の学習データセットが存在するか否かについて判断する。プロセッサ201は、未学習の学習データセットが存在すると判断した場合(ステップS220においてYES)、図12に示される学習処理を終了する。そうでない場合には(ステップS220においてNO)、プロセッサ201は、制御をステップS212に戻す。
以上のように、図12に示されるステップS212,S214,S216,S220が繰り返されることで、学習モデルを規定する各種パラメータが教師データに合わせて逐次的に更新される。
(5.3.検出処理)
次に、図13を参照して、上述の学習処理により生成された学習モデルに基づいて、入力画像から除去対象領域を検出する処理について説明する。図13は、入力画像から除去対象領域を検出する検出処理を表わすフローチャートである。図13に示される検出処理は、たとえば、制御装置20のプロセッサ101によって実現される。
ステップS310において、プロセッサ101は、制御装置20の動作モードが自動除去モードに設定されたか否かを判断する。当該自動除去モードは、たとえば、ユーザー操作に応じて設定される。プロセッサ101は、制御装置20の動作モードが自動除去モードに設定されたと判断した場合(ステップS310においてYES)、制御をステップS312に切り替える。そうでない場合には(ステップS310においてNO)、プロセッサ101は、図13に示される検出処理を終了する。
ステップS312において、プロセッサ101は、細胞などの検査対象の撮影を実行し、IHM位相像としての入力画像を画像作成部24(図2参照)から取得する。
ステップS314において、プロセッサ101は、ステップS312で得られた入力画像に対して、上述の図12の学習処理により得られた学習モデルを適用し、検出結果としてのラベル画像84を取得する。
ステップS316において、プロセッサ101は、上述の検出部602(図4参照)として、ステップS314で得られたラベル画像84に基づいて、除去対象領域を特定する。一例として、プロセッサ101は、除去対象領域を示す画素値を有する画素の集合をグルーピングし、各グループについて面積(たとえば、画素数)を算出する。プロセッサ101は、当該面積が所定値以上であるグループが存在する場合、入力画像内に除去対象領域が存在すると判断する。
ステップS320において、プロセッサ101は、入力画像内において除去対象領域が存在すると判断した場合(ステップS320においてYES)、制御をステップS322に切り替える。そうでない場合には(ステップS320においてNO)、プロセッサ101は、制御をステップS310に戻す。
ステップS322において、プロセッサ101は、上述の表示処理部603(図4参照)として、ステップS316で検出された除去対象領域を入力画像に重畳させて表示部26に表示する。除去対象領域の表示方法については、上記「3.7.表示処理部603」で説明した通りであるので、その説明については繰り返さない。
ステップS330において、プロセッサ101は、検出された除去対象領域について除去命令を受け付けたか否かを判断する。除去命令は、たとえば、上述の入力部25に対するユーザー操作に基づいて発せられる。プロセッサ101は、検出された除去対象領域について除去命令を受け付けたと判断した場合(ステップS330においてYES)、制御をステップS332に切り替える。そうでない場合には(ステップS330においてNO)、プロセッサ101は、制御をステップS310に戻す。
ステップS332において、プロセッサ101は、上述の除去機構制御部604(図4参照)として、ステップS316で検出された除去対象領域の位置(座標値)に基づいて、顕微鏡10の除去機構17を駆動し、除去機構17に除去対象物を除去させる。当該除去方法については、上記「3.8.除去機構制御部604」で説明した通りであるので、その説明については繰り返さない。
<6.第1の実施の形態のまとめ>
以上のようにして、本実施の形態に従う細胞画像解析装置1は、除去対象物が写っている細胞画像30から除去対象領域40Aを特定し、細胞画像30内において除去対象領域40Aの場所を表したラベル画像40を教師データとして生成する。そして、細胞画像解析装置1は、生成したラベル画像40と、生成元の細胞画像30とを機械学習に用いる学習データセット45として生成する。
このように、教師データとしてのラベル画像40が自動で生成されることで、設計者は、細胞画像30に対してラベリングを行う必要がなくなる。結果として、学習データを収集するための時間が大幅に削減される。また、このような学習データセットを自動生成するための仕組みが提供されることで、設計者は、学習データセットを容易かつ大量に収集することができる。
[第2の実施の形態]
<7.概要>
上述の第1の実施の形態においては、学習データセットの収集機能と、収集された学習データセットの学習機能とが細胞画像解析装置1に実装されていた。これに対して、第2の実施の形態においては、これらの機能がサーバ上に実装される。
細胞画像解析装置1のハードウェア構成などその他の点については上述の第1の実施の形態で説明した通りであるので、以下では、それらの説明については繰り返さない。
<8.システム構成>
図14を参照して、第2の実施の形態に従う細胞画像解析システム500のシステム構成について説明する。図14は、第2の実施の形態に従う細胞画像解析システム500のシステム構成の一例を表わす図である。
図14に示されるように、細胞画像解析システム500は、複数の細胞画像解析装置1と、1つ以上のサーバ300とを含む。細胞画像解析装置1の各々と、サーバ300とは、互いに通信可能に構成されている。
細胞画像解析装置1の各々は、「第1の実施の形態」で説明した上述の方法により学習データセット45を生成する。生成された学習データセット45は、サーバ300に送信される。サーバ300は、細胞画像解析装置1の各々から受信した学習データセット45を蓄積する。そして、サーバ300は、収集した学習データセット45に対して上述の機械学習を実行し、学習モデルを生成する。生成された学習モデルは、細胞画像解析装置1の各々に配布される。
なお、図14の例では、細胞画像解析システム500が3つの細胞画像解析装置1で構成されている例が示されているが、細胞画像解析システム500は、1つ以上の細胞画像解析装置1で構成さればよい。また、図14の例では、細胞画像解析システム500が1つのサーバ300で構成されている例が示されているが、細胞画像解析システム500は、複数のサーバ300で構成されてもよい。
<9.機能構成>
図15を参照して、細胞画像解析システム500の機能構成について説明する。図15は、細胞画像解析システム500の機能構成の一例を示す図である。
図15に示されるように、細胞画像解析システム500は、複数の細胞画像解析装置1と、サーバ300とを含む。
細胞画像解析装置1は、機能モジュールとして、画像取得部511と、教師データ生成部512と、学習データセット生成部513と、通信部515と、設定部601と、検出部602と、表示処理部603と、除去機構制御部604とを含む。サーバ300は、機能モジュールとして、学習モデル生成部514と、通信部516とを含む。
通信部515,516以外の機能構成については図4で説明した通りであるので、以下ではそれらの説明については繰り返さない。
細胞画像解析装置1の通信部515は、上述の通信インターフェイス104(または通信インターフェイス204)を制御するための通信ドライバである。通信部515により、サーバ300との通信が実現される。通信部515は、記憶装置220に蓄積された学習データセット45をサーバ300に送る。なお、学習データセット45は、生成される度にサーバ300に送信されてもよいし、所定数の学習データセット45が蓄積されたことに基づいてサーバ300に送信されてもよいし、ユーザ操作に基づいてサーバ300に送信されてもよい。
好ましくは、学習データセット45は、観察者によって選択された上でサーバ300に送信される。より具体的には、細胞画像解析装置1は、収集した学習データセット45を一覧表示する。観察者は、一覧表示された学習データセット45を確認し、送信対象の学習データセット45を選択し、その上で送信実行操作を行う。細胞画像解析装置1の通信部515は、送信実行操作を受け付けたことに基づいて、選択された学習データセット45をサーバ300に送信する。
サーバ300の通信部516は、後述の通信インターフェイス304(図16参照)を制御するための通信ドライバである。通信部516は、細胞画像解析装置1の各々から学習データセット45を受信し、受信した学習データセット45を記憶装置320に順次格納する。その後、学習モデル生成部514は、細胞画像解析装置1の各々から収集した学習データセット45を用いて機械学習を実行する。生成された学習モデルは、記憶装置320内のデーターベース27に保存される。
サーバ300の通信部516は、細胞画像解析装置1から学習モデル28のダウンロード命令を受信したことに基づいて、データーベース27からダウンロード指定された学習モデル28を取得する。その後、サーバ300の通信部516は、取得した学習モデル28をダウンロード命令の送信元の細胞画像解析装置1に送信する。
細胞画像解析装置1の通信部515は、サーバ300から受信した学習モデル28を記憶装置120に格納する。
なお、各機能モジュールの実装形態は、図15に示される例に限定されない。一例として、教師データ生成部512および学習データセット生成部513は、細胞画像解析装置1ではなく、サーバ300に実装されてもよい。
<10.サーバ300のハードウェア構成>
図16を参照して、サーバ300のハードウェア構成の一例について説明する。図16は、サーバ300の主要なハードウェア構成を示すブロック図である。
サーバ300は、プロセッサ301と、ROM302と、RAM303と、通信インターフェイス304と、入力インターフェイス305と、表示インターフェイス306と、顕微鏡インターフェイス307と、記憶装置320とを含む。これらのハードウェアは、制御装置20の各種ハードウェアと同じであり、上述の図9で説明した通りであるので、以下では、制御装置20と異なる部分についてのみ説明を行う。
記憶装置320は、たとえば、ハードディスクやフラッシュメモリなどの記憶媒体である。記憶装置320は、細胞画像解析装置1から収集された学習データセット45、学習データセット45から生成された学習モデル28、学習処理に関する各種処理を実現するための画像解析プログラム322などを格納する。画像解析プログラム322は、学習データセットを生成するための生成プログラムなどを含む。
画像解析プログラム322は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、本実施の形態に従う処理は、任意のプログラムと協働して実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う画像解析プログラム322の趣旨を逸脱するものではない。さらに、画像解析プログラム322によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、細胞画像解析装置1とサーバ300とが協働して、画像解析プログラム322を実行するように構成されてもよい。
<11.第2の実施の形態のまとめ>
以上のようにして、第2の実施の形態においては、サーバ300が細胞画像解析装置1の各々から学習データセット45を収集し、収集した学習データセット45を用いて学習モデルを生成する。サーバ300が細胞画像解析装置1の各々から学習データセット45を収集する仕組みが提供されることで、学習データセット45が容易かつ大量に収集される。
また、通常、機械学習を行うためには高スペックのPCが必要であるが、機械学習を行う機能がサーバ300に搭載されることで、ユーザサイドの細胞画像解析装置1を低コスト化することができる。
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
1 細胞画像解析装置、10 顕微鏡、11 光源部、12 イメージセンサ、13 培養プレート、14 細胞コロニー、15 参照光、16 物体光、17 除去機構、20 制御装置、21 撮影制御部、22 ホログラムデータ記憶部、23 位相情報算出部、24 画像作成部、25 入力部、26 表示部、27 データーベース、27A,27C 識別情報、27B 作成日時情報、27D 識別対象情報、28 学習モデル、30,33,35 細胞画像、31 除去対象物、37 差分画像、39,40,84 ラベル画像、40A 除去対象領域、40B 非除去対象領域、45 学習データセット、50 モデル生成装置、51 学習処理部、60 細胞画像解析部、70 多層ネットワーク、71 畳み込み層層、80,85 表示結果、81 マーカー、86,87,88 画像領域、101,201,301 プロセッサ、102,202,302 ROM、103,203,303 RAM、104,204,304 通信インターフェイス、105,205,305 入力インターフェイス、106,206,306 表示インターフェイス、107,207,307 顕微鏡インターフェイス、120,220,320 記憶装置、122 制御プログラム、222,322 画像解析プログラム、300
サーバ、500 細胞画像解析システム、511 画像取得部、512 教師データ生成部、513 学習データセット生成部、514 学習モデル生成部、515,516 通信部、601 設定部、602 検出部、603 表示処理部、604 除去機構制御部。

Claims (13)

  1. 機械学習に用いられる教師データを生成することが可能な細胞画像解析装置であって、
    細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている第1細胞画像を取得するための画像取得部と、
    予め定められた画像処理を実行することで、前記第1細胞画像内から前記除去対象物が写っている除去対象領域を特定し、前記第1細胞画像内の前記除去対象領域の場所を表したラベル画像を前記機械学習の教師データとして生成するための教師データ生成部と、
    前記第1細胞画像と前記ラベル画像とのセットを前記機械学習に用いる学習データセットとして生成するための学習データセット生成部とを備え
    前記画像取得部は、前記除去対象物の除去後に前記顕微鏡から得られた第2細胞画像をさらに取得し、
    前記予め定められた画像処理は、前記第1細胞画像と前記第2細胞画像との比較結果から前記除去対象領域を特定することを含む、細胞画像解析装置。
  2. 前記予め定められた画像処理は、前記第1細胞画像から前記第2細胞画像を差分した差分画像に基づいて、前記除去対象領域を特定することを含む、請求項に記載の細胞画像解析装置。
  3. 前記細胞画像解析装置は、前記第1細胞画像内の予め定められた領域に写る物体を除去するように構成された除去機構をさらに含み、
    前記予め定められた画像処理は、前記第1細胞画像内の前記予め定められた領域を前記除去対象領域として特定することを含む、請求項1に記載の細胞画像解析装置。
  4. 前記細胞画像解析装置は、
    前記学習データセット生成部によって生成された複数の学習データセットを用いた機械学習を実行し、画像内から前記除去対象物を識別するための学習モデルを生成する学習モデル生成部と、
    前記学習モデルに基づいて、前記細胞画像解析装置に入力された入力画像から前記除去対象領域を検出するための検出部とを備える、請求項1〜のいずれか1項に記載の細胞画像解析装置。
  5. 前記学習モデル生成部によって実行される機械学習は、予め学習された学習モデルの一部または全部を初期モデルとして用いる転移学習を含む、請求項に記載の細胞画像解析装置。
  6. 前記細胞画像解析装置は、
    前記学習モデル生成部によって生成された複数の学習モデルを格納するための記憶装置と、
    前記複数の学習モデルから一の学習モデルの選択操作を受け付けるための入力部とをさらに備え、
    前記検出部は、前記選択操作によって選択された学習モデルに基づいて、前記入力画像から前記除去対象領域を検出する、請求項またはに記載の細胞画像解析装置。
  7. 前記細胞画像解析装置は、
    表示部と、
    前記検出部によって検出された前記除去対象領域を前記入力画像に重畳して前記表示部に表示させるための表示処理部とをさらに備える、請求項のいずれか1項に記載の細胞画像解析装置。
  8. 前記細胞画像解析装置は、前記検出部によって検出された前記除去対象領域の検出結果に基づいて、前記除去対象物を前記顕微鏡の除去機構に除去させるための除去機構制御部を備える、請求項のいずれか1項に記載の細胞画像解析装置。
  9. 機械学習に用いられる教師データを生成することが可能な細胞画像解析システムであって、
    サーバと、
    前記サーバと通信可能に構成されている複数の細胞画像解析装置とを備え、
    前記複数の細胞画像解析装置は、それぞれ、
    細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている第1細胞画像を取得するための画像取得部と、
    予め定められた画像処理を実行することで、前記第1細胞画像内から前記除去対象物が写っている除去対象領域を特定し、前記第1細胞画像内の前記除去対象領域の場所を表したラベル画像を前記機械学習の教師データとして生成するための教師データ生成部と、
    前記第1細胞画像と前記ラベル画像とのセットを前記機械学習に用いる学習データセットとして生成するための学習データセット生成部と、
    前記学習データセットを前記サーバに送信するための通信部とを含み、
    前記画像取得部は、前記除去対象物の除去後に前記顕微鏡から得られた第2細胞画像をさらに取得し、
    前記予め定められた画像処理は、前記第1細胞画像と前記第2細胞画像との比較結果から前記除去対象領域を特定することを含む、細胞画像解析システム。
  10. 顕微鏡から得られた、除去対象物が写っている第1細胞画像と前記第1細胞画像内において前記除去対象物が写っている除去対象領域の場所を表したラベル画像とを受信するステップと、
    受信した前記第1細胞画像と前記ラベル画像とを用いて機械学習を行うことにより、細胞画像を入力画像とし、前記入力画像内の除去対象領域の場所を表す画像を出力画像とする学習モデルを生成するステップと、
    生成した学習モデルを送信するステップとを備え
    前記第1細胞画像内の除去対象領域は、予め定められた画像処理によって特定され、
    前記予め定められた画像処理は、前記第1細胞画像と、前記第1細胞画像内の除去対象物の除去後に前記顕微鏡から得られた第2細胞画像との比較結果から前記除去対象領域を特定する、方法。
  11. 機械学習に用いられる教師データの生成方法であって、
    細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている第1細胞画像を取得するステップと、
    予め定められた画像処理を実行することで、前記第1細胞画像内から前記除去対象物が写っている除去対象領域を特定し、前記第1細胞画像内の前記除去対象領域の場所を表したラベル画像を前記機械学習の教師データとして生成するステップと、
    前記第1細胞画像と前記ラベル画像とのセットを前記機械学習に用いる学習データセットとして生成するステップとを備え
    前記第1細胞画像を取得するステップは、前記除去対象物の除去後に前記顕微鏡から得られた第2細胞画像をさらに取得し、
    前記予め定められた画像処理は、前記第1細胞画像と前記第2細胞画像との比較結果から前記除去対象領域を特定することを含む、学習データの生成方法。
  12. 機械学習に用いられる教師データの生成プログラムであって、
    前記生成プログラムは、コンピュータに、
    細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている第1細胞画像を取得するステップと、
    予め定められた画像処理を実行することで、前記第1細胞画像内から前記除去対象物が写っている除去対象領域を特定し、前記第1細胞画像内の前記除去対象領域の場所を表したラベル画像を前記機械学習の教師データとして生成するステップと、
    前記第1細胞画像と前記ラベル画像とのセットを前記機械学習に用いる学習データセットとして生成するステップとを実行させ、
    前記第1細胞画像を取得するステップは、前記除去対象物の除去後に前記顕微鏡から得られた第2細胞画像をさらに取得し、
    前記予め定められた画像処理は、前記第1細胞画像と前記第2細胞画像との比較結果から前記除去対象領域を特定することを含む、学習データの生成プログラム。
  13. 機械学習に用いられる教師データの製造方法であって、
    細胞を観察するための顕微鏡から得られた画像であって、除去対象物が写っている第1細胞画像を取得する工程と、
    予め定められた画像処理を実行することで、前記第1細胞画像内から前記除去対象物が写っている除去対象領域を特定し、前記第1細胞画像内の前記除去対象領域の場所を表したラベル画像を前記機械学習の教師データとして生成する工程と、
    前記第1細胞画像と前記ラベル画像とのセットを前記機械学習に用いる学習データセットとして生成する工程とを備え
    前記第1細胞画像を取得する工程は、前記除去対象物の除去後に前記顕微鏡から得られた第2細胞画像をさらに取得し、
    前記予め定められた画像処理は、前記第1細胞画像と前記第2細胞画像との比較結果から前記除去対象領域を特定することを含む、学習データの製造方法。
JP2020507194A 2018-03-20 2018-03-20 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法 Active JP6981533B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/011195 WO2019180848A1 (ja) 2018-03-20 2018-03-20 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法

Publications (2)

Publication Number Publication Date
JPWO2019180848A1 JPWO2019180848A1 (ja) 2021-04-08
JP6981533B2 true JP6981533B2 (ja) 2021-12-15

Family

ID=67988409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020507194A Active JP6981533B2 (ja) 2018-03-20 2018-03-20 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法

Country Status (4)

Country Link
US (1) US11686721B2 (ja)
JP (1) JP6981533B2 (ja)
CN (1) CN111919117B (ja)
WO (1) WO2019180848A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6981533B2 (ja) * 2018-03-20 2021-12-15 株式会社島津製作所 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法
JP7210355B2 (ja) * 2019-03-27 2023-01-23 株式会社エビデント 細胞観察システム、コロニー生成位置推定方法、推論モデル生成方法、およびプログラム
TR201915794A2 (ja) * 2019-10-14 2021-04-21 Izmir Yueksek Teknoloji Enstituesue
JP7383982B2 (ja) 2019-10-30 2023-11-21 株式会社ジェイテクト 工具寿命予測システム
JP7289427B2 (ja) * 2020-02-28 2023-06-12 株式会社Pros Cons プログラム、情報処理方法及び情報処理装置
JP7045410B2 (ja) * 2020-03-25 2022-03-31 日東電工株式会社 画像分類プログラムの組換方法
JP7391285B2 (ja) 2020-07-21 2023-12-05 株式会社シバサキ プログラム、情報処理装置、情報処理方法及びモデル生成方法
JP6908806B1 (ja) * 2020-09-16 2021-07-28 BonBon株式会社 プログラム、情報処理装置、方法
CN114693694A (zh) 2020-12-25 2022-07-01 日本电气株式会社 图像处理的方法、设备和计算机可读存储介质
WO2023019559A1 (zh) * 2021-08-20 2023-02-23 深圳先进技术研究院 一种自动化干细胞检测方法、系统、终端以及存储介质
JP2023034230A (ja) * 2021-08-30 2023-03-13 公益財団法人神戸医療産業都市推進機構 細胞画像解析システム、細胞画像解析装置、および、細胞画像解析方法
WO2023221951A2 (zh) * 2022-05-14 2023-11-23 北京大学 基于细胞动态图像机器学习的细胞分化
CN116664966B (zh) * 2023-03-27 2024-02-20 北京鹰之眼智能健康科技有限公司 一种红外图像处理系统

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364323B2 (ja) * 1994-05-17 2003-01-08 謙 石原 非侵襲血液分析装置
JP3471556B2 (ja) 1997-03-27 2003-12-02 理化学研究所 位相シフトディジタルホログラフィ装置
WO2004025569A2 (en) * 2002-09-13 2004-03-25 Arcturus Bioscience, Inc. Tissue image analysis for cell classification and laser capture microdissection
DE10304653B4 (de) 2003-02-05 2005-01-27 Evotec Technologies Gmbh Mehrparametrige Detektion in einem fluidischen Mikrosystem
US7796815B2 (en) * 2005-06-10 2010-09-14 The Cleveland Clinic Foundation Image analysis of biological objects
WO2008034868A2 (de) * 2006-09-22 2008-03-27 Aviso Gmbh Verfahren und vorrichtung zur automatisierten entnahme von zellen und/oder zellkolonien
JP5181385B2 (ja) * 2007-08-16 2013-04-10 国立大学法人名古屋大学 細胞の品質を予測する予測モデルの構築法、予測モデルの構築用ブログラム、該プログラムを記録した記録媒体、予測モデルの構築用装置
JP4968595B2 (ja) 2008-07-23 2012-07-04 株式会社ニコン 細胞の状態判別手法及び細胞観察の画像処理装置
US8935136B2 (en) * 2011-09-22 2015-01-13 Microsoft Corporation Multi-component model engineering
JP5376024B1 (ja) * 2012-08-23 2013-12-25 富士ゼロックス株式会社 画像処理装置、プログラム及び画像処理システム
JP5464244B2 (ja) * 2012-08-24 2014-04-09 富士ゼロックス株式会社 画像処理装置、プログラム及び画像処理システム
US9858469B2 (en) * 2013-12-30 2018-01-02 Ge Healthcare Bio-Sciences Corp. Modular image analysis system and method
JP6284024B2 (ja) * 2014-04-28 2018-02-28 横河電機株式会社 細胞生死判定システム、細胞生死判定方法
JP6388036B2 (ja) 2014-11-27 2018-09-12 株式会社島津製作所 ディジタルホログラフィ装置及びディジタルホログラム生成方法
JP6720756B2 (ja) * 2015-10-08 2020-07-08 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
US10572828B2 (en) * 2015-10-28 2020-02-25 Qomplx, Inc. Transfer learning and domain adaptation using distributable data models
JP6742724B2 (ja) * 2015-12-28 2020-08-19 シスメックス株式会社 細胞領域決定方法、細胞撮像システム、細胞画像の処理装置及びコンピュータプログラム
WO2017203718A1 (ja) 2016-05-27 2017-11-30 株式会社島津製作所 ホログラフィ観察方法及び装置
US11854666B2 (en) * 2016-09-29 2023-12-26 Myriad Women's Health, Inc. Noninvasive prenatal screening using dynamic iterative depth optimization
CN107169556A (zh) * 2017-05-15 2017-09-15 电子科技大学 基于深度学习的干细胞自动计数方法
WO2019039035A1 (ja) * 2017-08-25 2019-02-28 富士フイルム株式会社 判別器の学習装置、方法およびプログラム、並びに判別器
WO2019151307A1 (ja) * 2018-01-30 2019-08-08 国立研究開発法人理化学研究所 マスク構造最適化装置、マスク構造最適化方法およびプログラム
JP7163955B2 (ja) * 2018-03-08 2022-11-01 株式会社島津製作所 細胞画像解析方法、細胞画像解析装置、及び学習モデル作成方法
JP6981533B2 (ja) * 2018-03-20 2021-12-15 株式会社島津製作所 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法

Also Published As

Publication number Publication date
CN111919117A (zh) 2020-11-10
CN111919117B (zh) 2023-01-24
US11686721B2 (en) 2023-06-27
US20210019499A1 (en) 2021-01-21
WO2019180848A1 (ja) 2019-09-26
JPWO2019180848A1 (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
JP6981533B2 (ja) 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法
US20220092773A1 (en) Identifying the quality of the cell images acquired with digital holographic microscopy using convolutional neural networks
JP7163955B2 (ja) 細胞画像解析方法、細胞画像解析装置、及び学習モデル作成方法
CN105210083B (zh) 用于查验和分析细胞学标本的系统和方法
KR20210113236A (ko) 병리학 시료의 자동화된 이미징 및 분석을 위한 컴퓨터 사용 현미경 검사 기반의 시스템 및 방법
JP7428173B2 (ja) 細胞観察装置及び細胞観察方法
WO2016189469A1 (en) A method for medical screening and a system therefor
CN114127307A (zh) 细胞图像解析方法和细胞图像解析装置
CN112649403A (zh) 细胞图像解析方法及细胞解析装置
JP7070656B2 (ja) 細胞画像解析方法、細胞画像解析装置、及び学習モデル作成方法
JP2021508127A (ja) 自律顕微鏡システムの制御方法、顕微鏡システム、および、コンピュータ可読記憶媒体
JP7006832B2 (ja) 細胞解析装置
JP2021078356A (ja) 細胞解析装置
JP7006833B2 (ja) 細胞解析装置
van Eekelen et al. Multi-class semantic cell segmentation and classification of aplasia in bone marrow histology images
Terry et al. Active monitoring of powder bed fusion process by training an artificial neural net classifier on layer-by-layer surface laser profilometry data
US20230055377A1 (en) Automated training of a machine-learned algorithm on the basis of the monitoring of a microscopy measurement
Terry et al. Active Monitoring of Selective Laser Melting Process by Training an Artificial Neural Net Classifier on Layer-By-Layer Surface Laser Profilometry Data
JP6947288B2 (ja) 細胞観察装置及び細胞観察用プログラム
WO2021070372A1 (ja) 細胞画像解析方法及び細胞解析装置
WO2021070371A1 (ja) 細胞画像解析方法及び細胞解析装置
Bakker Automatic characterization of network-like structures in high-throughput microscopy images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R151 Written notification of patent or utility model registration

Ref document number: 6981533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151