JP7342950B2 - 細胞画像解析方法および細胞画像解析装置 - Google Patents

細胞画像解析方法および細胞画像解析装置 Download PDF

Info

Publication number
JP7342950B2
JP7342950B2 JP2021532644A JP2021532644A JP7342950B2 JP 7342950 B2 JP7342950 B2 JP 7342950B2 JP 2021532644 A JP2021532644 A JP 2021532644A JP 2021532644 A JP2021532644 A JP 2021532644A JP 7342950 B2 JP7342950 B2 JP 7342950B2
Authority
JP
Japan
Prior art keywords
image
colony
cell
area
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021532644A
Other languages
English (en)
Other versions
JPWO2021009906A1 (ja
Inventor
渉 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Publication of JPWO2021009906A1 publication Critical patent/JPWO2021009906A1/ja
Application granted granted Critical
Publication of JP7342950B2 publication Critical patent/JP7342950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12QMEASURING OR TESTING PROCESSES INVOLVING ENZYMES, NUCLEIC ACIDS OR MICROORGANISMS; COMPOSITIONS OR TEST PAPERS THEREFOR; PROCESSES OF PREPARING SUCH COMPOSITIONS; CONDITION-RESPONSIVE CONTROL IN MICROBIOLOGICAL OR ENZYMOLOGICAL PROCESSES
    • C12Q1/00Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions
    • C12Q1/02Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions involving viable microorganisms
    • C12Q1/04Determining presence or kind of microorganism; Use of selective media for testing antibiotics or bacteriocides; Compositions containing a chemical indicator therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Organic Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Wood Science & Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Zoology (AREA)
  • Biotechnology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Genetics & Genomics (AREA)
  • Analytical Chemistry (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • General Engineering & Computer Science (AREA)
  • Biochemistry (AREA)
  • Microbiology (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Immunology (AREA)
  • Biophysics (AREA)
  • Toxicology (AREA)
  • Medicinal Chemistry (AREA)
  • Sustainable Development (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Image Analysis (AREA)

Description

本発明は、細胞画像解析方法および細胞画像解析装置に関する。
従来、iPS細胞(induced pluripotent stem cells)などの多能性を有する細胞を培養することが知られている。
細胞培養に際しては、培養容器内から培養中の細胞を抽出して別の培養容器に移し替えて、次代の細胞株とする継代が行われる。この細胞の抽出は、ピッキングと呼ばれる。培養容器中には、既に分化を開始した細胞(多能性を喪失した細胞)などの継代に不適な細胞が存在するため、継代に際して、継代に適した細胞が作業者(ユーザ)によって選別される。
具体的には、作業者(ユーザ)が、顕微鏡で培養容器内の細胞コロニーを1つずつ確認することにより、培養容器内から継代に適した細胞を探索する。次に、作業者(ユーザ)は、継代に適した細胞がある位置にマーキングを行い、マーキングした位置の細胞コロニーをピペッタなどにより吸引する。また、培養初期などには、培養容器内から、既に分化を開始した細胞(多能性を喪失した細胞)や死細胞などを抽出して、除去する作業も行われる。このような除去作業も、継代と同様に顕微鏡を用いた除去対象の探索と、発見された除去対象のピッキングとにより行われる。
このような細胞の探索作業やピッキング作業は、繊細でユーザの負荷が大きいため、作業の一部を自動化する装置が提案されている(たとえば、非特許文献1参照)。非特許文献1では、培養容器内の細胞の顕微鏡画像を撮像し、ユーザが画像中からピッキング対象を決定した後、コントローラを操作することにより、ピペッタによる細胞のピッキング作業を自動的に行う装置が開示されている。
"細胞培養支援装置 CELL PICKER"、[online]、[令和1年6月19日検索]、インターネット〈URL:https://www.an.shimadzu.co.jp/bio/cell/cellpicker/index.htm〉
上記非特許文献1に開示された装置によっても、細胞の探索作業はユーザ自身が行う必要があるため、細胞の探索作業についてのユーザの作業負荷を軽減することが望まれる。
しかしながら、ピッキングの対象となる細胞は、ユーザが実施する細胞培養の目的、培養する細胞の種類、などによっても異なる。そのため、顕微鏡画像から観察される多数の細胞領域のうちから、どの細胞領域がピッキング対象に適しているかは、ユーザが主体的に判断する必要がある。その結果、従来、多能性を有する細胞の培養に際して、ピッキング対象の探索作業に伴うユーザの負荷を軽減することが困難であった。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、細胞培養におけるピッキング対象となる細胞の探索作業に伴うユーザの負荷を、効果的に軽減することが可能な細胞画像解析方法および細胞画像解析装置を提供することである。
上記目的を達成するために、この発明の第1の局面における細胞画像解析方法は、分化能を有する細胞を含む細胞コロニーを撮像した第1画像を取得するステップと、第1画像中の細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、第1画像をラベル画像に変換するステップと、ラベル画像から細胞コロニーの形状特徴量を取得するステップと、コンピュータを用いて、ユーザから、探索対象のコロニー領域に関する入力を受け付けるステップと、ユーザの入力に基づいて形状特徴量の判定基準を設定するステップと、形状特徴量と判定基準とに基づいて、細胞コロニー毎に、探索対象の候補となるコロニー領域を含むか否かを判定するステップと、を備える。
この発明の第2の局面における細胞画像解析装置は、分化能を有する細胞を含む細胞コロニーを撮像した顕微鏡画像が入力される記憶部と、顕微鏡画像中の細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、第1画像をラベル画像に変換するセグメンテーション処理部と、探索対象のコロニー領域に関する入力を受け付ける入力部と、顕微鏡画像に含まれる細胞コロニー毎に、探索対象の候補となるコロニー領域を含むか否かを判定する判定処理部と、を備え、判定処理部は、ラベル画像から細胞コロニーの形状特徴量を取得し、形状特徴量と、ユーザの入力に基づいて設定された形状特徴量の判定基準とに基づいて、コロニー領域の判定を行うように構成されている。
この発明の第3の局面における細胞画像解析方法は、機械学習された判定用の学習済みモデルを作成するステップと、分化能を有する細胞を含む細胞コロニーを撮像した第1画像を取得するステップと、第1画像中の細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、第1画像をラベル画像に変換するステップと、第1画像のラベル画像を学習済みモデルに入力することにより、細胞コロニー毎に、探索対象の候補となるコロニー領域を含むか否かを判定するステップと、を備え、学習済みモデルを作成するステップは、予め取得された第2画像中の細胞コロニーについて、所望のコロニー領域を含む否かの選択情報の入力を受け付けるステップと、第2画像をセグメンテーションしたラベル画像を入力データとし、選択情報を教師データとする機械学習により、学習済みモデルを作成するステップと、を含む。
本発明の第1~第3の局面によれば、上記のように、セグメンテーション処理によって、分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とのうち、培養目的等に応じてピッキングの対象となり得るコロニー領域を画像中から特定できる。そして、第1および第2の局面では、形状特徴量と、ユーザの入力に基づいて設定された形状特徴量の判定基準とに基づいて、画像中の細胞コロニー毎に、探索対象の候補となるコロニー領域を含むか否かの判定結果を得ることができる。また、第3の局面では、所望のコロニー領域を含むか否かの選択情報を用いて機械学習させた学習済みモデルによって、画像中の細胞コロニー毎に、探索対象の候補となるコロニー領域を含むか否かの判定結果を得ることができる。これらの結果、本発明の第1~第3の局面によれば、ユーザがピッキング対象として判断する可能性の高いコロニー領域を含む細胞コロニーを判別してユーザに示すことが可能となるため、多数の細胞領域をユーザが1つ1つ観察して判断する必要がなくなる。これにより、細胞培養におけるピッキング対象となる細胞の探索作業に伴うユーザの負荷を、効果的に軽減することができる。
一実施形態による細胞画像解析方法の概要を示した図である。 細胞画像解析方法を説明するためのフロー図である。 一実施形態の細胞画像解析装置の概要を示したブロック図である。 第1学習済みモデルを説明するための図である。 第1学習済みモデルの作成処理を説明するためのフロー図である。 選択情報の入力方法を説明するための図である。 形状特徴量の例を示した図である。 形状特徴量を説明するためのラベル画像の模式図である。 第2学習済みモデルを説明するための図である。 機械学習における入力画像、教師ラベル画像およびセグメンテーション結果のラベル画像の例を示した図である。 細胞画像解析装置を備えたピッキングシステムの例を説明するための図である。 ピッキングシステムを説明するための斜視図である。 細胞画像解析処理およびピッキング処理を説明するためのフロー図である。 ピッキング対象の判断基準の例を示した図である。 変形例による判定用の学習済みモデルを説明するための図である。 変形例による細胞画像解析方法を説明するためのフロー図である。 セグメンテーション処理および判定処理をサーバ側で行う変形例を示した模式図である。 セグメンテーション処理をサーバ側で行う変形例を示した模式図である。
以下、本発明を具体化した実施形態を図面に基づいて説明する。
図1~図14を参照して、本実施形態による細胞画像解析方法および細胞画像解析装置100について説明する。
(細胞画像解析方法)
図1に示す細胞画像解析方法は、細胞培養における細胞のピッキング作業において、細胞コロニー10を撮像した顕微鏡画像を取得し、顕微鏡画像中に写る細胞コロニー10が、探索対象の候補となるコロニー領域を含むか否かを判定する方法である。
細胞コロニー10とは、単一細胞に由来する細胞塊(多数の細胞の集合)のことである。コロニー領域とは、細胞コロニーのうちで、特定の細胞により構成された領域である。
細胞のピッキングとは、細胞の培養容器90中から、ピッキング対象となる細胞または細胞塊を抽出することである。細胞のピッキングは、たとえばピペッタなどの器具を用いてピッキング対象を吸引することにより行われる。
本実施形態におけるピッキング対象となる細胞は、分化能を有する細胞である。分化能を有する細胞は、たとえばiPS細胞、ES細胞(胚性幹細胞)などである。これらの細胞は、様々な組織や臓器を構成する細胞に分化する分化多能性(分化能)を有する。このような細胞の培養では、多能性を維持した細胞である「未分化細胞」と、未分化状態を逸脱し既に分化を開始した細胞である「未分化逸脱細胞」と、が生じる。そのため、細胞コロニーには、未分化細胞のコロニー領域や未分化逸脱細胞のコロニー領域が形成される。細胞コロニーは、未分化細胞のコロニー領域または未分化逸脱細胞のコロニー領域のいずれかだけで構成される場合もあり、未分化細胞のコロニー領域と未分化逸脱細胞のコロニー領域とを含む場合もある。
多能性を維持した未分化細胞を増殖させるために、未分化細胞をピッキングして別の培養容器に移し替え、次代の細胞株として培養を行う継代と呼ばれる作業や、未分化逸脱細胞をピッキングして培養容器90中から除去する作業が行われる。
たとえば継代に用いられる細胞は、未分化細胞であればどのような細胞でもよいという訳ではない。ピッキングを行う際には、培養作業を行うユーザの目的に応じた未分化細胞のコロニー領域が、ユーザによって探索され、ピッキングの対象として選別される。
本実施形態による細胞画像解析方法は、このような分化能を有する細胞の培養に際して、未分化細胞のコロニー領域11と未分化逸脱細胞のコロニー領域12とを区別する。そして、細胞画像解析方法は、培養作業を行うユーザの目的に応じて、ピッキングのために探索対象の候補となるコロニー領域を含んだ細胞コロニー10を判別することにより、ピッキング対象となる細胞コロニー10の探索作業を支援する。未分化逸脱細胞のコロニー領域12は、請求の範囲の「既に分化を開始した細胞のコロニー領域」の一例である。
図1および図2に示すように、本実施形態による細胞画像解析方法は、少なくとも、下記のステップ71~76を備える。
(ステップ71)分化能を有する細胞を含む細胞コロニー10を撮像した第1画像21を取得する。
(ステップ72)第1画像21中の細胞コロニー10における、既に分化を開始した細胞(未分化逸脱細胞)のコロニー領域12と、未分化細胞のコロニー領域11とを特定するセグメンテーション処理を実施し、第1画像21をラベル画像21Aに変換する。
(ステップ73)ラベル画像21Aから細胞コロニー10の形状特徴量25を取得する。
(ステップ74)コンピュータを用いて、ユーザから、探索対象のコロニー領域に関する入力を受け付ける。
(ステップ75)ユーザの入力に基づいて形状特徴量25の判定基準30を設定する。
(ステップ76)形状特徴量25と判定基準30とに基づいて、細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かを判定する。
ステップ71において、第1画像21は、分化能を有する細胞を含む細胞コロニー10を撮像した顕微鏡画像でありうる。顕微鏡画像は、たとえば透過観察型顕微鏡、位相差顕微鏡などの光学顕微鏡により取得される画像である。第1画像21は、ホログラフィック顕微鏡画像であり得る。第1画像21は、細胞コロニー10の形状を観察可能な倍率で非破壊的に撮像可能な画像であれば、特に限定されない。
第1画像21は、少なくとも1つの細胞コロニー10を撮像した画像である。第1画像21は、たとえば図1に示すように、培養容器90中の細胞コロニー10を、撮像装置200によって撮像することにより取得される。培養容器90は、いわゆるシャーレなどの透明な平皿状の培養皿、複数のウェルが形成されたマイクロプレート(ウェルプレート)などである。
図2のステップ72において、取得された第1画像21に対してセグメンテーション処理が実施される。本明細書において、「セグメンテーション処理」とは、画像を複数の領域に分割する処理であって、検出対象が写る領域にその検出対象を示すラベルを付与することにより、入力画像を複数のラベル領域に区分する処理である。ラベル領域とは、画像中で共通のラベルが付与された画素群によって構成される領域(画像の一部分)である。セグメンテーション処理は、コンピュータを用いた画像処理により実現される。
ラベルは、ラベル領域を構成する画像部分が示す意味を表す情報である。セグメンテーションは、画像中の1画素毎にラベルを付与することにより行われる。ラベルは、複数画素のまとまり(画素群)を単位として付与されてもよい。ラベルの種類のことを、クラスという。
図1に示したように、第1画像21に対するセグメンテーション処理により、第1画像21が、複数のラベル領域に分割されたラベル画像21Aが生成される。
ステップ72におけるセグメンテーション処理は、第1画像21を、少なくとも、分化を開始した細胞(未分化逸脱細胞)のコロニー領域12のラベル領域と、未分化細胞のコロニー領域11のラベル領域と、に領域分割する処理である。つまり、少なくとも2クラスの分類が行われる。これにより、生成されるラベル画像21Aは、未分化逸脱細胞のコロニー領域12と、未分化細胞のコロニー領域11と、の少なくとも2つのラベル領域を含む。ラベル画像21Aは、たとえば、未分化逸脱細胞のコロニー領域12と、未分化細胞のコロニー領域11と、コロニー領域以外の背景領域13と、の3つ(3クラス)のラベル領域を含む。
ラベル画像21Aにおいて、同一のラベル領域内の各画素は、同一の画素値または同一の色で表現される。異なるラベル領域は、異なる画素値または異なる色で表現される。図1の例によるラベル画像21Aは、第1画像21中の各画素が、3クラスのラベル(未分化逸脱細胞のコロニー領域、未分化細胞のコロニー領域、背景領域)に対応する3値の画素値のいずれかで区分された、3値化画像である。これにより、第1画像21中に現われるコロニー領域の模様や明暗のグラデーションなどの、細胞コロニーの形状とは無関係の画像情報が除去され、各ラベル領域の形状だけを正確に抽出可能となる。
ステップ73において、ラベル画像21Aから細胞コロニー10の形状特徴量25が取得される。形状特徴量25は、ラベル画像21Aに含まれる細胞コロニー10の形状を数値によって表現した情報である。形状特徴量25は、細胞コロニー10を示すラベル領域の大きさ、輪郭形状、幅や長さなどを示す量(数値)でありうる。細胞コロニー10の形状特徴量25は、細胞コロニー10の全体領域に関する形状特徴量であってもよいし、細胞コロニー10の一部である未分化細胞のコロニー領域11や未分化逸脱細胞のコロニー領域12に関する形状特徴量であってもよい。形状特徴量25の具体的な内容については、後述する。
ステップ74では、コンピュータが備える入力デバイスを介して、探索対象のコロニー領域に関する入力が受け付けられる。そして、ステップ75において、コンピュータにより、入力された情報に基づいて形状特徴量25の判定基準30が設定される。
探索対象のコロニー領域に関する情報は、形状特徴量25の判定基準30を設定するための情報である。探索対象のコロニー領域に関する情報は、判定基準30そのものであってもよい。探索対象のコロニー領域に関する情報は、ユーザがどのようなコロニー領域を探索対象として判定するかというユーザの傾向を表す情報であってもよい。より簡単に言えば、探索対象のコロニー領域に関する情報は、ユーザがどのようなコロニー領域を所望するかという、細胞コロニー10に関するユーザの好みを表す情報でありうる。そのため、探索対象のコロニー領域に関する入力に基づいて、ユーザ自身の判断基準に沿った形状特徴量25の判定基準30が設定される。
ユーザの入力に基づいて設定される形状特徴量25の判定基準30は、たとえば、形状特徴量25の閾値でありうる。複数の形状特徴量25を用いて判定が行われる場合、判定基準30は、判定に用いられる個々の形状特徴量25に対する重みを含みうる。ユーザは、たとえば、形状特徴量25の閾値や重みを、ピッキング対象にしたい細胞コロニー10の特徴に合わせて入力し、設定させる。予めサンプルとなる顕微鏡画像を準備しておいて、顕微鏡画像中に写る個々の細胞コロニー10について、探索対象の候補となるコロニー領域を含むか否かをユーザ自身が選択して入力(教示)することにより、判定基準30が設定されてもよい。
ステップ76では、第1画像21(ラベル画像21A)中の個々の細胞コロニー10が、探索対象の候補となるコロニー領域を含むか否かが、画像中に写る細胞コロニー10毎に判定される。判定処理は、コンピュータを用いた画像処理により実現される。
探索対象の候補となるコロニー領域を含むか否かの判定処理は、判定対象となる細胞コロニー10について取得された形状特徴量25が、形状特徴量25の判定基準30に合致するか否かにより実施される。
ステップ76の結果、第1画像21(ラベル画像21A)中の個々の細胞コロニー10について、探索対象の候補となるコロニー領域を含むか否かの判定結果35が生成される。判定結果35は、「探索対象の候補となるコロニー領域を含む(正例)」、「探索対象の候補となるコロニー領域を含まない(負例)」の2値情報でありうる。後述するように、判定結果35は、「探索対象の候補となるコロニー領域を含む」ことの可能性の高さの度合いを示す情報でありうる。
ステップ77において、判定結果35が出力される。判定結果35に基づいて、ユーザ自身により、または自動で、第1画像21(ラベル画像21A)中の個々の細胞コロニー10をピッキング対象とするか否かが判断できる。たとえば、ユーザは、個々の細胞コロニー10の判定結果35を考慮して、正例であると判定された細胞コロニー10のうちから、目的に沿った細胞コロニー10をピッキング対象として選択する。また、たとえば、正例であると判定された細胞コロニー10のうちから、閾値処理などの自動的な処理により、いずれかの細胞コロニー10がピッキング対象として選択される。このため、ユーザは、ピッキング作業において培養容器90中の1つ1つの細胞コロニー10の形態を詳細に確認するなどの探索作業を要することなく、ピッキング対象を決定できる。
(細胞画像解析装置)
図3を参照して、本実施形態の細胞画像解析装置100の概要について説明する。細胞画像解析装置100は、図1および図2に示した細胞画像解析方法を実行する装置である。
図3に示す細胞画像解析装置100は、記憶部110と、セグメンテーション処理部121と、判定処理部122と、入力部140と、を備える。細胞画像解析装置100は、信号の入出力、データ通信、または記録媒体を介したデータの移し替えにより、細胞撮像装置200から顕微鏡画像を取得可能である。
記憶部110には、分化能を有する細胞を含む細胞コロニー10を撮像した顕微鏡画像が入力される。顕微鏡画像は、図1に示した第1画像21である。細胞画像解析装置100は、細胞撮像装置200から取得した第1画像21の画像データを記憶部110に記憶させるように構成されている。これにより、図2のステップ71が実施される。
セグメンテーション処理部121は、顕微鏡画像(第1画像21)中の細胞コロニー10における、既に分化を開始した細胞のコロニー領域12と、未分化細胞のコロニー領域11とを特定するセグメンテーション処理を実施する。すなわち、セグメンテーション処理部121は、図2のステップ72を実施する。セグメンテーション処理部121は、第1画像21に対するセグメンテーション処理により、第1画像21をラベル画像21A(図1参照)に変換する。
判定処理部122は、顕微鏡画像に含まれる細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かを判定する。
判定処理部122は、ラベル画像21Aから細胞コロニー10の形状特徴量25(図1参照)を取得し、形状特徴量25と、形状特徴量25の判定基準30とに基づいて、コロニー領域の判定を行うように構成されている。すなわち、判定処理部122は、図2のステップ73および76を実行する。形状特徴量25の判定基準30は、判定処理(ステップ76)に先立つステップ74および75において、入力部140を用いたユーザの入力に基づいて細胞画像解析装置100に設定され、記憶部110に記憶される。
判定処理部122は、図2のステップ77において、判定結果35を出力する。判定結果35に基づいて、ユーザにより、または自動で、第1画像21(ラベル画像21A)中の個々の細胞コロニー10をピッキング対象とするか否かが判断できる。
図3に示した例では、細胞画像解析装置100は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)などの演算処理を行うプロセッサ120と、データを記憶する記憶部110と、入力部140とを備えたパーソナルコンピュータ(PC)により構成される。
図3の例では、プロセッサ120が、記憶部110に記憶されたプログラム111を実行することにより、セグメンテーション処理部121および判定処理部122として機能する。すなわち、図3の例では、セグメンテーション処理部121および判定処理部122がプロセッサ120の機能ブロックとして実現されている。セグメンテーション処理部121および判定処理部122が個別のハードウェアとして構成されていてもよい。
個別のハードウェアとは、セグメンテーション処理部121および判定処理部122が別々のプロセッサによって構成されることを含む。個別のハードウェアとは、細胞画像解析装置100が複数台のコンピュータ(PC)を含み、セグメンテーション処理を行うコンピュータ(PC)と、判定処理を行うコンピュータ(PC)とが、別々に設けられることを含む。
記憶部110は、揮発性および/または不揮発性の記憶装置により構成されうる。たとえば記憶部110は、ハードディスクドライブまたはソリッドステートドライブを含む。記憶部110には、細胞画像解析装置100のプログラム111が記憶されている。記憶部110は、取得された顕微鏡画像(第1画像21)などの各種データを記憶する。
入力部140は、ユーザからの操作入力を受け付ける装置である。入力部140は、たとえばマウスやキーボードなどの入力デバイスを含む。これにより、入力部140は、探索対象のコロニー領域に関する入力を受け付けるように構成されている。また、細胞画像解析装置100は、画像表示を行う表示部130に接続されている。表示部130は、液晶方式や有機/無機EL方式などのモニタを含む。入力部140が表示部130と一体化されたタッチパネルであってもよい。
細胞画像解析装置100は、入力部140を介してユーザの操作入力を受け付けることにより、判定基準30を設定可能に構成されている。細胞画像解析装置100は、顕微鏡画像(第1画像21)、ラベル画像21A、判定結果35などを表示部130に表示させることができる。細胞画像解析装置100は、たとえば、表示部130に表示させたラベル画像21Aに対する選択操作の入力を受け付ける。これにより、細胞画像解析装置100は、ユーザがピッキング対象(探索対象の候補となるコロニー領域を含んだ細胞コロニー10)を特定することができる。
(判定基準の設定)
次に、判定基準30の設定方法の一例について説明する。判定基準30は、ユーザから操作入力を受け付けることにより、入力された情報から自動的に設定することができる。
たとえば、探索対象のコロニー領域に関する入力を受け付けるステップ74は、予め取得された第2画像22中の細胞コロニー10について、ユーザから所望のコロニー領域を含む否かの選択情報40の入力を受け付けるステップを含む。そして、判定基準30を設定するステップ75では、受け付けた選択情報40に基づいて、判定基準30を設定する。
第2画像22は、判定基準30を設定するためのサンプルとして、予め取得される顕微鏡画像である。第2画像22は、第1画像21(図1参照)と同様、分化能を有する細胞を含む細胞コロニー10を撮像した画像である。
選択情報40は、第2画像22中の細胞コロニー10について、正例(所望のコロニー領域を含む)であるか、負例(所望のコロニー領域を含まない)であるかをユーザが選択した情報である。つまり、選択情報40は、第2画像22中の1つの細胞コロニー10と一対一で紐付けられ、紐付けられた細胞コロニー10が正例であるか負例であるかを示す情報である。選択情報40は、正例(たとえば「1」)または負例(たとえば「0」)のいずれかを示す2値情報である。
選択情報40は、たとえば表示部130に表示させた画像に対して、入力部140を介してユーザの選択を受け付けることにより、取得される。本実施形態では、選択情報40の入力を受け付けるステップは、第2画像22または第2画像22のラベル画像22A中で、ユーザによるコロニー領域の指定を可能にすること、または、ユーザによるコロニー領域のピッキングを可能にすること、を含む。これにより、ユーザが実際にコロニー領域の指定し、または、ユーザが実際にコロニー領域をピッキングすることにより、選択情報40が入力できる。
図6は、第2画像22のラベル画像22Aに対する操作入力の例を示す。図6において、ラベル画像22Aと、説明用の模式図とを並べて図示している。ユーザは、第2画像22または第2画像22のラベル画像22A中で、入力部140(図3参照)を介して、正例となる細胞コロニー10を選択する操作入力41を行う。または、ユーザは、第2画像22または第2画像22のラベル画像22Aを表示させた状態で、正例となる細胞コロニー10を実際にピッキングする。ピッキングの結果、画像中から細胞コロニー10が除去されることにより、除去された細胞コロニー10が正例であるとの選択情報40を取得できる。入力が行われなかった細胞コロニー10は、負例であるとの選択情報40が付与される。ユーザが負例と判断する細胞コロニー10について、負例であることの操作入力が行われてもよい。
適切な数の細胞コロニー10について、ユーザの操作入力に基づいて選択情報40が生成される。生成された複数の選択情報40から、どのような細胞コロニー10を正例として判定するかというユーザの傾向(すなわち、好み情報)を把握できる。その結果、受け付けた選択情報40に基づいて判定基準30が設定される。
〈第1学習済みモデル〉
本実施形態では、判定基準30は、選択情報40を用いた機械学習によって獲得されうる。すなわち、判定基準30を設定するステップ75は、図4に示すように、第2画像22のラベル画像22Aから取得された形状特徴量25を入力データとし、選択情報40を教師データとする機械学習により、形状特徴量25に対する判定基準30を獲得した第1学習済みモデル50を作成することを含む。そして、探索対象の候補となるコロニー領域を含むか否かを判定するステップ76(図2参照)は、第1画像21のラベル画像21Aから取得された形状特徴量25を第1学習済みモデル50に入力して判定結果35を生成することを含む。
第2画像22のラベル画像22Aは、図1に示した第1画像21のラベル画像21Aと同様に、第2画像22に対するセグメンテーション処理によって取得される。第2画像22のラベル画像22Aは、第1画像21のラベル画像21Aと同じように複数領域に分割される。つまり、第2画像22のラベル画像22A(図6参照)は、少なくとも未分化逸脱細胞のコロニー領域12と、未分化細胞のコロニー領域11とを含む。
第2画像22のラベル画像22Aから、細胞コロニー10毎に、形状特徴量25が算出される。第2画像22中に写る個々の細胞コロニー10について、その細胞コロニー10の形状特徴量25と、その細胞コロニー10についての選択情報40とが取得される。形状特徴量25を入力データとし、選択情報40を教師データとする機械学習により、着目する細胞コロニー10の形状特徴量25が与えられた時に、その細胞コロニー10が正例(探索対象の候補となるコロニー領域を含む)であるか否かを判定することが学習される。すなわち、機械学習によって、形状特徴量25の判定基準30を獲得した第1学習済みモデル50が生成される。
第1学習済みモデル50(判定処理用の学習モデル)は、たとえばSVM(サポートベクターマシン)である。好ましくは、第1学習済みモデル50は、非線形SVMである。第1学習済みモデル50は、第1画像21のラベル画像21Aに写る未知の細胞コロニー10についての形状特徴量25を入力として、その細胞コロニー10が正例に該当するか否かの判定結果35を生成する。第1学習済みモデル50は、たとえば、判定結果35として、着目する細胞コロニー10が正例に該当する可能性の高さの度合いである確信度を、0(%)~100(%)の範囲で生成するように構成されている。
図5に、第1学習済みモデル50の作成処理を示す。第1学習済みモデル50の作成は、たとえば図3に示した細胞画像解析装置100により実施できる。
ステップ81において、第2画像22が細胞撮像装置200から取得され、記憶部110に入力される。
ステップ82において、セグメンテーション処理部121により、第2画像22に対するセグメンテーション処理が行われる。セグメンテーション処理により、第2画像22のラベル画像22Aが生成される。
ステップ83において、ラベル画像22A中の細胞コロニー10に対する選択情報40の入力が、入力部140により受け付けられる。このステップ83は、本実施形態の細胞画像解析方法における「選択情報の入力をユーザから受け付けるステップ」の一例である。また、ステップ84において、判定処理部122により、選択情報40が入力された細胞コロニー10の形状特徴量25が算出される。
ステップ85において、判定処理部122により、形状特徴量25を入力データとし、選択情報40を教師データとする機械学習が行われる。ステップ85が、本実施形態の細胞画像解析方法における「判定基準を設定するステップ」の一例である。
ステップ86において、所定回数の学習が完了したか否かが判断される。所定回数の学習が完了しない場合、ステップ81に戻り、判定処理部122により、次の細胞コロニー10について学習が行われる。所定回数の学習が完了した場合、機械学習が完了する。ステップ87において、作成された第1学習済みモデル50が記憶部110に記憶される。
以上により、形状特徴量25の判定基準30を獲得した第1学習済みモデル50の作成処理が行われる。これにより、図4に示したように、判定処理(図2のステップ76)では、判定処理部122が、第1画像21のラベル画像21Aから形状特徴量25を算出して第1学習済みモデル50に入力する。その結果、判定処理部122は、第1学習済みモデル50により判定結果35を生成する。このような形状特徴量25を用いた機械学習および判定処理は、たとえば画像全体を入力データとする場合と比べて、入力データ量が小さくて済むため、処理負荷が小さく高速な処理が可能である。そのため、ユーザが関与する第1学習済みモデル50の機械学習を短時間で完了させることができ、ピッキング作業の際に判定結果35が出力されるまでの処理も速やかに行える。
(形状特徴量)
次に、形状特徴量25について説明する。
図7に示すように、形状特徴量25は、i)ラベル画像21Aに含まれる細胞コロニー10の全体領域、ii)細胞コロニー10に含まれる未分化細胞のコロニー領域11、iii)細胞コロニー10に含まれる分化を開始した細胞(未分化逸脱細胞)のコロニー領域12、のうち少なくとも1つに関する形状特徴量を含む。図7では、便宜的に、細胞コロニー10の全体領域の形状特徴量25Aを「コロニー特徴量」と表記し、未分化細胞のコロニー領域11の形状特徴量25Bを「未分化領域特徴量」と表記し、未分化逸脱細胞のコロニー領域12の形状特徴量25Cを「逸脱領域特徴量」と表記している。
本実施形態では、第1画像21(第2画像22)は、未分化細胞のコロニー領域11と、未分化逸脱細胞のコロニー領域12と、背景領域13と、の3クラスの各ラベルに領域分割される。そのため、図8に示すように、細胞コロニー10の全体領域は、未分化細胞のコロニー領域11と未分化逸脱細胞のコロニー領域12とを合計した領域である。なお、図8は、コロニー領域11およびコロニー領域12を含む細胞コロニー10を示しているが、未分化細胞のコロニー領域11のみの細胞コロニー10や、未分化逸脱細胞のコロニー領域12のみの細胞コロニー10もある。
図7に示すように、形状特徴量25は、具体的には、i)領域の面積、ii)領域の輪郭長さ、iii)領域の円形度、iv)領域の最小外接矩形のアスペクト比、およびv)細胞コロニー10の全体領域に対するコロニー領域11の面積比、のうち少なくとも1つを含む。ここでいう「領域」とは、細胞コロニー10の全体領域、コロニー領域11またはコロニー領域12のうち、いずれかのことである。
「領域の面積」は、着目する領域に含まれる画素の数に相当する。「領域の輪郭長さ」は、着目する領域の輪郭91を構成する画素の数に相当する。「領域の円形度」は、着目する領域の輪郭91が円形に近いほど1に近い値となる特徴量である。着目する領域の面積をS、着目する領域の輪郭長さをCとすると、領域の円形度RはR=4π×(S/C2)で表される。
「領域の最小外接矩形のアスペクト比」は、着目する領域の最小外接矩形92の(短辺/長辺)によって表される。最小外接矩形92は、着目する領域を囲む矩形の中で最も面積が小さくなる矩形である。「細胞コロニー10の全体領域に対するコロニー領域11の面積比」は、細胞コロニー10中の未分化細胞のコロニー領域11が占める割合である。面積比は、(未分化細胞のコロニー領域11の面積/細胞コロニー10全体の面積)で表される。
図7は、継代の際に、未分化細胞のコロニー領域11をピッキングする場合に採用されうる形状特徴量25の例を示したものである。細胞コロニー10の全体領域に関する形状特徴量25A(コロニー特徴量)としては、細胞コロニー10の全体領域の面積、細胞コロニー10の全体領域の輪郭長さ、細胞コロニー10の全体領域の円形度、細胞コロニー10の全体領域のアスペクト比が採用できる。
未分化細胞のコロニー領域11に関する形状特徴量25B(未分化領域特徴量)としては、未分化細胞のコロニー領域11の面積、未分化細胞のコロニー領域11の輪郭長さ、未分化細胞のコロニー領域11の円形度、未分化細胞のコロニー領域11のアスペクト比が採用できる。
未分化逸脱細胞のコロニー領域12に関する形状特徴量25C(逸脱領域特徴量)としては、未分化逸脱細胞のコロニー領域12の面積、細胞コロニー10の全体領域に対するコロニー領域11の面積比が採用できる。なお、面積比は、値が大きいほど未分化逸脱細胞のコロニー領域12が小さいことを表し、未分化細胞のコロニー領域11をピッキングする場合には、未分化逸脱細胞の割合の少なさの尺度となる。
判定処理に用いられる形状特徴量25は、以上の特徴量のうち1つまたは複数を含む。実際にユーザがピッキング対象とするか否かの判断材料としている細胞コロニー10の特徴点は、単一ではないため、判定処理には、複数の形状特徴量25を用いることが好ましい。たとえば、判定処理には、細胞コロニー10の全体領域に関する形状特徴量25A、未分化細胞のコロニー領域11に関する形状特徴量25B、および、未分化逸脱細胞のコロニー領域12に関する形状特徴量25Cを、少なくとも1つずつ用いる。形状特徴量25の数が多くなるほど、適切な判定基準30を設定するのが難しくなる。図4に示した機械学習による第1学習済みモデル50を用いることは、複数の形状特徴量25を用いる場合でも、各形状特徴量25についての適切な閾値を直接求める必要がなく、総合的な判定基準30を獲得できるため好ましい。
(第2学習済みモデル)
本実施形態では、図2のステップ72に示したセグメンテーション処理は、セグメンテーション処理を機械学習させた第2学習済みモデル60(図9参照)によって実施されうる。すなわち、第1画像21をラベル画像21Aに変換するステップ72は、図9に示すように、第1画像21を入力データとし、コロニー領域11にセグメンテーション結果のラベルを付与する第2学習済みモデル60により、ラベル画像21Aを生成することを含む。
第2学習済みモデル60は、入力された画像(第1画像21、第2画像22)に対して、セグメンテーション処理を行い、複数のラベル領域に分割したラベル画像(ラベル画像21A、ラベル画像22A)を出力する。機械学習法として、全層畳み込みニューラルネットワーク(FullyConvolutionalNetworks;FCN)、ニューラルネットワーク、サポートベクターマシン(SVM)、ブースティング等の任意の手法を用いることができる。本実施形態の第2学習済みモデル60には、ラベル領域の識別性能の点から、好ましくは、セマンティックセグメンテーションに頻用される畳み込みニューラルネットワーク、より好ましくは、全層畳み込みニューラルネットワークを用いるとよい。そのような第2学習済みモデル60は、画像が入力される入力層、畳み込み層、出力層を含んで構成される。
第2学習済みモデル60を作成するためには、複数の学習データ61を含んだ学習用データセットを用いた機械学習が行われる。図10では、入力画像23と、教師データとしての教師ラベル画像24と、機械学習後の第2学習済みモデル60により入力画像23にセグメンテーション処理を実施した結果のラベル画像23Aと、を示す。教師ラベル画像24およびラベル画像23Aについては、未分化細胞のコロニー領域11と、未分化逸脱細胞のコロニー領域12と、背景領域13と、の3クラスでのラベル付与が行われている。各画像は実際にはカラー画像であり、ラベル画像は3色に色分けされた画像である。しかし、便宜的にグレースケール化しているため、説明のために細胞コロニー10を示した模式図を各画像に並べて示している。
機械学習に用いる学習データ61は、同一の細胞コロニー10についての入力画像23と教師ラベル画像24とを含む。入力画像23は、セグメンテーション処理が行われる前の元画像であり、第1画像21および第2画像22と同様の細胞コロニー10が写る画像である。教師ラベル画像24は、入力画像23に対するセグメンテーション処理の結果として生成されるべき正解の画像として作成される。つまり、教師ラベル画像24は、入力画像23を複数のラベル領域に分割したラベル画像である。
教師ラベル画像24は、機械学習を実行するための学習用画像の作成者によって作成される。たとえば、細胞コロニー10について、染色剤により細胞領域を染色した細胞膜染色画像と、未分化細胞の核染色領域を未分化マーカーにより染色した核染色画像とを取得し、細胞膜染色画像と核染色画像とをそれぞれ閾値処理により2値化した上で両画像の差分を取得することにより、教師ラベル画像24が作成される。
図9および図10に示したように、第2学習済みモデル60を作成する際には、入力画像23から、正解である教師ラベル画像24への変換処理(セグメンテーション処理)をセグメンテーション処理用の学習モデルに学習させる。機械学習の結果、作成された第2学習済みモデル60に、処理対象となる第1画像21や第2画像22を入力することにより、セグメンテーション処理が行われたラベル画像21Aやラベル画像22Aが生成される。
以上のような判定処理用の第1学習済みモデル50と、セグメンテーション処理用の第2学習済みモデル60とは、たとえば図3のプロセッサ120が実行するプログラム111の一部として、記憶部110に記憶される。そして、プロセッサ120が判定処理部122として機能する場合に、第1学習済みモデル50を用いて判定処理が行われる。プロセッサ120がセグメンテーション処理部121として機能する場合に、第2学習済みモデル60を用いてセグメンテーション処理が行われる。
(セルピッキングシステム)
より具体的な構成例として、図11を参照して、本実施形態の細胞画像解析装置100と、細胞撮像装置200と、セルピッキング装置300とを備えたセルピッキングシステム500について説明する。
セルピッキングシステム500は、培養容器90中の細胞コロニー10(図1参照)を細胞撮像装置200により撮像し、得られた第1画像21に対してセグメンテーション処理および判定処理を行い、判定結果35に基づいて自動的または半自動的にピッキング作業を実行可能に構成されている。セルピッキングシステム500は、ピッキング動作を制御するための制御部400を備える。セルピッキングシステム500のうち、細胞撮像装置200、セルピッキング装置300および制御部400を組み合わせた構成例を、図12に示す。
図11および図12に示すように、細胞撮像装置200は、培養容器90中の細胞コロニー10を撮像して、顕微鏡画像(第1画像21、第2画像22)を取得する。細胞撮像装置200は、顕微鏡画像を制御部400に出力するように構成されている。細胞撮像装置200は、照明部210と、光学系220と、撮像部230とを備える。
照明部210は、ステージ450に載置された培養容器90を介して光学系220へ照明光を照射する。照明部210は、可視波長領域の照明光を発生するLEDなどの光源を含む。光学系220は、対物レンズなどのレンズ群を含み、培養容器90を透過して入射した光を撮像部230へ送り、所望の倍率の像を形成する。撮像部230は、イメージセンサを含み、光学系220を介して受光した光を電気信号に変換して顕微鏡画像を生成する。イメージセンサとしては、たとえばCCD(Charge-Coupled Device)イメージセンサ、CMOS(Complementary MOS)イメージセンサなどがある。
図12は、倒立型の光学顕微鏡(位相差顕微鏡)に撮像部230を取り付けて細胞撮像装置200とした構成例を示している。ユーザは光学顕微鏡の接眼レンズ250を通して、画像ではなく肉眼でも細胞コロニー10を確認できる。
制御部400は、図示しないプロセッサおよび記憶部を備えたコンピュータであり、記憶部に記憶されたプログラムを実行することにより、プロセッサが制御部として機能する。制御部400は、細胞画像解析装置100、細胞撮像装置200、およびセルピッキング装置300と通信可能に接続されている。図12の例では、制御部400は、タブレット端末であり、表示部410およびタッチパネル式の入力部420を備えている。入力部420は、ユーザが選択情報40を入力するために用いることができる。
制御部400は、細胞撮像装置200から、撮像された顕微鏡画像(第1画像21、第2画像22)を取得して、表示部410に表示させる。制御部400は、表示させた画像上で、入力部420を介してユーザの入力操作を受け付ける。制御部400は、取得した顕微鏡画像(第1画像21、第2画像22)を細胞画像解析装置100に送信するとともに、入力部420を介してユーザから受け付けた選択情報40を細胞画像解析装置100に送信する。制御部400は、セルピッキング装置300に座標情報を送信することにより、セルピッキング装置300のピッキング動作を制御する。なお、制御部400を設けずに、細胞画像解析装置100を制御部400として機能させてもよい。
セルピッキング装置300は、ステージ450上に載置された培養容器90内の細胞をピッキングするように構成されている。図12の例では、セルピッキング装置300は、ノズル部310と、吸引機構320と、ノズル移動機構330とを備える。
ノズル部310は、培養容器90内にアクセスして細胞を吸引するように構成されている。ノズル部310は、たとえば使い捨てのピペットチップ340を着脱可能に構成されている。ノズル部310は、装着されたピペットチップ340の先端から細胞を吸引する。吸引機構320は、ノズル部310と流体的に接続され、ノズル部310に吸引力を付与するように構成されている。ノズル移動機構330は、ノズル部310を移動させるように構成されている。ノズル移動機構330は、モータなどの駆動源を有するロボット機構であり、ピッキング時にノズル部310の先端を培養容器90内のピッキング座標へ移動させ、吸引後にノズル部310の先端を培養容器90の外部まで退避させる。セルピッキング装置300は、制御部400によって、ピッキング動作の開始、終了が制御されるとともに、制御部400からピッキング座標の入力を受け付ける。
ステージ450は、たとえば電動ステージである。この場合、制御部400は、培養容器90中の所定範囲の顕微鏡画像を順次取得するように、ステージ450を制御することができる。ステージ450は、電動ステージでなくてもよい。この場合、ピッキング作業において、ユーザは、たとえばステージ450上の培養容器90を把持して移動させて、培養容器90中の各撮像位置における複数の顕微鏡画像を順次取得させることができる。
図11の例では、細胞画像解析装置100のプロセッサ120が、セグメンテーション処理部121と、判定処理部122と、ピッキング処理部123とを機能ブロックとして含む。セグメンテーション処理部121は、記憶部110に記憶された第2学習済みモデル60を用いて、顕微鏡画像(第1画像21、第2画像22)に対するセグメンテーション処理を行う。判定処理部122は、制御部400を介して第2画像22と選択情報40とを取得して、第1学習済みモデル50を作成し、記憶部110に記憶するように構成されている。判定処理部122は、記憶部110に記憶した第1学習済みモデル50を用いて、第1画像21中の細胞コロニー10に対する判定処理を行う。ピッキング処理部123は、細胞コロニー10がピッキング対象に該当するか否かを判断し、ピッキング対象に該当する細胞コロニー10に対してピッキング座標26(図8参照)を設定するように構成されている。
記憶部110は、第2学習済みモデル60を予め記憶している。セグメンテーション処理は、ユーザの好み(どの細胞コロニー10をピッキング対象として判定するかの傾向)に左右されないため、事前に機械学習を実行して作成された第2学習済みモデル60を記憶しておくことが可能である。記憶部110には、第1画像21、第2画像22を含む画像データ、選択情報40などが入力され、記憶される。
細胞画像解析装置100において、第1画像21を取得して判定処理およびピッキング処理を実行する前段階の、準備作業として、図5に示した第1学習済みモデル50の作成処理が実行される。すなわち、サンプルとなる第2画像22により第1学習済みモデル50が予め作成され、記憶部110に記憶される。
まず、ユーザは、サンプルとなる培養細胞を収容した培養容器90を用意して、ステージ450上に載置する。細胞撮像装置200により、第2画像22が撮像され、制御部400を介して細胞画像解析装置100に送信される(図5のステップ81)。
セグメンテーション処理部121が、第2学習済みモデル60により、セグメンテーション処理を実行し、第2画像22のラベル画像22Aを生成する(図5のステップ82)。制御部400は、図6に示したように第2画像22または生成されたラベル画像22Aを表示部410に表示させ、入力部420を介したユーザからの選択情報40の入力を受け付ける(図5のステップ83)。なお、画像表示および入力受け付けは、細胞画像解析装置100が備える表示部130および入力部140(図11参照)を用いても行うことができる。
選択情報40の入力に際して、ユーザは、図6に示したように、表示された画像中に所望するコロニー領域を含む細胞コロニー10が存在する場合に、その細胞コロニー10の画像を画面上でタップすることにより、正例である選択情報40を入力する。画像をタップせずに次の画像を表示させた場合、その細胞コロニー10には負例である選択情報40が付される。制御部400は、選択情報40を細胞撮像装置200に送信する。
選択情報40が取得されると、判定処理部122がラベル画像22Aから細胞コロニー10の形状特徴量25を算出する(図5のステップ84)。判定処理部122は、図7に示した各種の形状特徴量のうちから、予め設定された1つまたは複数の形状特徴量25を算出する。
判定処理部122は、細胞コロニー10の形状特徴量25と、その細胞コロニー10に対する選択情報40と、を用いて機械学習を行う(図5のステップ85)。ユーザは、以上の作業を繰り返して、第1学習済みモデル50の作成に必要な所定回数の機械学習を実行させる(図5のステップ86)。これにより、準備作業としての第1学習済みモデル50の作成が完了する。作成された第1学習済みモデル50は、記憶部110に記憶される(図5のステップ87)。
なお、この第1学習済みモデル50の作成処理において、ピッキング作業を実際に行ってもよい。すなわち、表示された画像中の細胞コロニー10をユーザがタップした場合、制御部400は、タップされた位置をピッキング座標26(図6参照)として取得する。制御部400は、取得したピッキング座標26およびピッキング動作の開始命令をセルピッキング装置300に送信する。これにより、セルピッキング装置300は、指定されたピッキング座標のコロニー領域11のピッキングを行う。
この構成によれば、ユーザは継代などのピッキング作業を手動入力で実際に実行するだけで、準備作業である第1学習済みモデル50の作成処理(機械学習)を行える。たとえばピッキング作業を行うべき培養容器90が複数ある場合に、1つ目の培養容器90に対しては、ユーザがセルピッキングシステム500に手動入力でピッキング作業を実施させる。培養容器90中には、判定対象となる多数の細胞コロニー10が収容されているため、たとえば1つ目の培養容器90に対するピッキング作業が完了すると、機械学習による第1学習済みモデル50の作成処理も完了する。そして、2つ目以降の培養容器90に対するピッキング作業は、後述するように、作成された第1学習済みモデル50を用いて自動または半自動的に実行可能となる。
(画像解析処理およびピッキング処理)
次に、図13を参照して、事前準備で作成された第1学習済みモデル50を用いた、セルピッキングシステム500による画像解析処理およびピッキング処理について説明する。
なお、図13のステップ151が、図2に示した本実施形態の細胞画像解析方法のステップ71に対応する。図13のステップ152が、図2に示したステップ72に対応する。図13のステップ153は、図2に示したステップ73に対応する。図13のステップ154は、図2に示したステップ76に対応する。また、図13の例では、細胞画像解析方法を用いた細胞除去方法を示す。すなわち、本実施形態の細胞除去方法は、図2のステップ71~76を備え、探索対象の候補となるコロニー領域を含むか否かの判定結果35を取得する。そして、細胞除去方法は、探索対象の候補となるコロニー領域を含むか否かの判定結果35に基づいて、ユーザが所望すると判定されたコロニー領域11のピッキング座標26を設定するステップ156と、ピッキング座標26の細胞を培養容器90からピッキングするステップ157とをさらに備える。
ステップ151において、細胞撮像装置200が、ステージ450上の培養容器90中の細胞コロニー10を撮像し、撮像視野内に含まれる細胞コロニー10を写した第1画像21を生成する。細胞画像解析装置100のセグメンテーション処理部121は、制御部400を介して第1画像21を取得する。
ステップ152において、セグメンテーション処理部121は、取得した第1画像21に対してセグメンテーション処理を実行する。すなわち、セグメンテーション処理部121は、第1画像21を第2学習済みモデル60に入力することにより、第1画像21のラベル画像21Aを生成する。
ステップ153において、判定処理部122は、生成されたラベル画像21Aから細胞コロニー10の形状特徴量25を取得する。すなわち、判定処理部122は、図7に示した例のうちから、予め設定された1つまたは複数の形状特徴量25を算出する。
ステップ154において、判定処理部122は、細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かを判定する。すなわち、判定処理部122は、細胞コロニー10毎の形状特徴量25を第1学習済みモデル50に入力することにより、それぞれの細胞コロニー10が正例(探索対象の候補となるコロニー領域を含む)か否かの判定結果35を出力する。判定結果35は、0(%)~100(%)までの確信度(数値)として出力される。
ステップ155において、細胞画像解析装置100のピッキング処理部123は、判定結果35が出力された細胞コロニー10がピッキング対象に該当するか否かを判断する。ピッキング処理部123は、判定結果35が出力された細胞コロニー10がピッキング対象に該当しないと判断された場合、ステップ158に処理を進める。
ピッキング処理部123は、判定結果35が出力された細胞コロニー10がピッキング対象に該当すると判断した場合、ステップ156において、ユーザが所望すると判定されたコロニー領域11のピッキング座標26を設定する。
継代を行う例では、ピッキング対象に該当すると判断された細胞コロニー10のうちで、未分化細胞のコロニー領域11中の位置座標が、ピッキング座標26に設定される。たとえばピッキング処理部123は、図8に例示したように、未分化細胞のコロニー領域11中の幾何学的重心を算出し、算出した重心位置を、ピッキング座標26に設定する。また、ピッキング処理部123は、セルピッキング装置300により実際にピッキングされる領域の輪郭形状を予め取得し、ピッキングされる領域が未分化細胞のコロニー領域11内に収まる位置として、ピッキング座標26を設定する。ピッキング処理部123は、設定したピッキング座標26を制御部400に出力する。
ステップ157において、セルピッキング装置300が、制御部400の制御の下、ピッキング座標26の細胞を培養容器90からピッキングする。セルピッキング装置300は、制御部400から送信されたピッキング座標26のノズル部310の先端を移動させて吸引させることにより、ピッキング座標26の細胞(コロニー領域)をピペットチップ内に抽出する。セルピッキング装置300は、ノズル部310の先端を培養容器90の外部に退避させた後、抽出した細胞を所定位置の細胞容器へ吐出させる。ピッキングが終了すると、処理がステップ158に進む。
ステップ158において、制御部400は、ピッキング作業を終了するか否かを判断する。制御部400は、ピッキング作業を終了しないと判断した場合、処理をステップ151に戻して、次の第1画像21を取得させる。たとえばユーザからピッキング作業を終了する旨の操作入力を受け付けた場合、所定数の細胞コロニー10がピッキングされた場合、全ての細胞コロニー10について上記の処理が実施された場合などに、制御部400は、ピッキング作業を終了すると判断する。
以上で、第1学習済みモデル50を用いた、画像解析処理およびピッキング処理が終了する。
図13では、培養容器90内の各撮像位置において、第1画像21を取得する度に判定処理を行う(以下、逐次処理という)の例を示した。本実施形態では、これとは異なり、培養容器90内の各撮像位置における複数枚の第1画像21を予め撮像しておいて、撮像されたそれぞれの第1画像21に写る細胞コロニー10毎に判定処理をまとめて行ってもよい(以下、バッチ処理という)。バッチ処理の場合は、予め撮像された各細胞コロニー10についての判定結果35が得られた後で、それぞれの判定結果35に基づいて、各細胞コロニー10をピッキング対象とするか否かが判断される。
図14は、ステップ155における、細胞コロニー10がピッキング対象に該当するか否かの判断基準の例を示す。第1の判断基準として、ピッキング処理部123は、たとえば、判定結果35の値(確信度)が、予め設定された閾値よりも大きい場合に、ピッキング対象に該当すると判断する。閾値は、ユーザにより予め入力される。ユーザは、ピッキング対象となる細胞コロニー10を厳選したい場合に、相対的に高い閾値を設定し、なるべく多くの細胞コロニー10をピッキングしたい場合に、相対的に低い閾値を設定する。第1の判断基準は、逐次処理およびバッチ処理のいずれの場合も適用できる。
第2の判断基準として、ピッキング処理部123は、複数の細胞コロニー10の判定結果35の値(確信度)の順位が、予め設定された順位の閾値よりも上位である場合に、ピッキング対象に該当すると判断する。第2の判断基準は、バッチ処理の場合に適用できる。つまり、バッチ処理により、複数の第1画像21に写る複数の(全ての)細胞コロニー10に対する判定処理を先に実行した後で、判定結果35によって各細胞コロニー10を順位付けし、判定結果35の値が高い上位N個の細胞コロニー10をピッキング対象として設定する。順位の閾値Nは、ユーザにより予め入力される。
第1の判断基準および第2の判断基準では、予め閾値を設定しておくことで、ピッキング処理を全自動で行うことが可能である。この他、第3の判断基準として、ピッキング処理部123は、ピッキング対象とする旨の入力操作を受け付けた場合に、ピッキング対象に該当すると判断する。たとえば判定結果35の値(確信度)を細胞コロニー10の画像とともに表示部410に表示させ、表示させた細胞コロニー10をピッキング対象として選択するか否かを入力部420を介してユーザに入力させる。ユーザは、判定結果35の数値を参考に、細胞コロニー10を自分で確認した上でピッキング対象に設定するかどうかを決定できる。
(本実施形態の効果)
本実施形態では、以下のような効果を得ることができる。
本実施形態の細胞画像解析方法は、上記のように、分化能を有する細胞を含む細胞コロニー10を撮像した第1画像21を取得するステップ71と、第1画像21中の細胞コロニー10における、既に分化を開始した細胞(未分化逸脱細胞)のコロニー領域12と、未分化細胞のコロニー領域11とを特定するセグメンテーション処理を実施し、第1画像21をラベル画像21Aに変換するステップ72と、ラベル画像21Aから細胞コロニー10の形状特徴量25を取得するステップ73と、コンピュータを用いて、ユーザから、探索対象のコロニー領域に関する入力を受け付けるステップ74と、ユーザの入力に基づいて形状特徴量25の判定基準30を設定するステップ75と、形状特徴量25と判定基準30とに基づいて、細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かを判定するステップ76と、を備える。
また、本実施形態の細胞画像解析装置100は、上記のように、分化能を有する細胞を含む細胞コロニー10を撮像した顕微鏡画像(第1画像21)が入力される記憶部110と、顕微鏡画像中の細胞コロニー10における、既に分化を開始した細胞のコロニー領域12と、未分化細胞のコロニー領域11とを特定するセグメンテーション処理を実施し、顕微鏡画像(第1画像21)をラベル画像21Aに変換するセグメンテーション処理部121と、探索対象のコロニー領域に関する入力を受け付ける入力部140と、顕微鏡画像に含まれる細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かを判定する判定処理部122と、を備え、判定処理部122は、ラベル画像21Aから細胞コロニー10の形状特徴量25を取得し、形状特徴量25と、ユーザの入力に基づいて設定された形状特徴量25の判定基準30とに基づいて、コロニー領域の判定を行うように構成されている。
上記構成によれば、セグメンテーション処理によって、分化を開始した細胞のコロニー領域12と、未分化細胞のコロニー領域11とのうち、培養目的等に応じてピッキングの対象となり得るコロニー領域を画像中から特定できる。そして、形状特徴量25と、ユーザの入力に基づいて設定された形状特徴量25の判定基準30とに基づいて、画像中の細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かの判定結果35を得ることができる。これらの結果、本実施形態では、ユーザがピッキング対象として判断する可能性の高いコロニー領域を含む細胞コロニー10を判定してユーザに示すことが可能となるため、顕微鏡画像中の多数の細胞領域をユーザが1つ1つ観察して判断する必要がなくなる。これにより、細胞培養におけるピッキング対象となる細胞の探索作業に伴うユーザの負荷を、効果的に軽減することができる。
また、上記実施形態の例では、以下のように構成したことによって、更なる効果が得られる。
すなわち、上記実施形態の細胞画像解析方法では、予め取得された第2画像22中の細胞コロニー10について、所望のコロニー領域を含む否かの選択情報40の入力をユーザから受け付けるステップ83と、受け付けた選択情報40に基づいて、判定基準30を設定するステップ85と、を含む。このように構成すれば、サンプルとなる第2画像22中の細胞コロニー10に対するユーザ自身の判定結果をユーザが入力することによって、「探索対象の候補となるコロニー領域」を含むか否かの判定基準30を設定することができる。この場合、判定基準30となる形状特徴量25の閾値や複数の形状特徴量25の重みなどの最適値をユーザ自身が見出す必要がないため、判定基準30を設定するためのユーザの作業負荷を軽減できる。
また、上記実施形態の細胞画像解析方法では、判定基準30を設定するステップ85は、第2画像22のラベル画像21Aから取得された形状特徴量25を入力データとし、選択情報40を教師データとする機械学習により、形状特徴量25に対する判定基準30を獲得した第1学習済みモデル50を作成することを含む。そして、探索対象の候補となるコロニー領域を含むか否かを判定するステップ76は、第1画像21のラベル画像21Aから取得された形状特徴量25を第1学習済みモデル50に入力して判定結果35を生成することを含む。このように構成すれば、ユーザが選択情報40を入力するだけで、機械学習によって、形状特徴量25に対する判定基準30を獲得した第1学習済みモデル50を得ることができる。その結果、第1学習済みモデル50によって生成された判定結果35を、ユーザに提供できる。ここで、第1画像21中に写るコロニー領域は、多様な形態を有しており、ユーザの好み(ピッキング対象の選択傾向)も多様である。そのため、実際上は、機械学習によらないルールベースの手法によって、ユーザの好みに沿った判定結果35を生成する判定基準30を構築することは難度が高い。これに対して、機械学習の手法を用いれば、複数の形状特徴量25を組み合わせた判定基準30の構築でも、ルールベースの手法と比べて容易に行える。ユーザが自ら判定した結果である選択情報40を用いて学習することによって、ユーザの好みに沿った精度の高い判定結果35を容易に提供することができる。
また、上記実施形態の細胞画像解析方法では、選択情報40の入力を受け付けるステップ83は、第2画像22または第2画像22のラベル画像21A中で、ユーザによるコロニー領域の指定を可能にすること、または、ユーザによるコロニー領域のピッキングを可能にすること、を含む。このように構成すれば、セルピッキング装置300に対するピッキング対象の決定のためにユーザがコロニー領域を指定するだけで、判定基準30を設定するためのサンプルとなる選択情報40を入力できる。そのため、選択情報40を入力するための特別な入力作業を行う必要がないため、判定基準30を設定するためのユーザの作業負荷を軽減できる。
また、上記実施形態の細胞画像解析方法では、形状特徴量25は、i)ラベル画像21Aに含まれる細胞コロニー10の全体領域、ii)細胞コロニー10に含まれる未分化細胞のコロニー領域11、iii)細胞コロニー10に含まれる分化を開始した未分化逸脱細胞のコロニー領域12、のうち少なくとも1つに関する形状特徴量25を含む。ここで、本願発明者が鋭意検討した結果、ユーザ自身が顕微鏡画像からピッキング対象を判定する場合にも、細胞コロニー10の全体の形状、未分化細胞のコロニー領域11の形状、未分化逸脱細胞のコロニー領域12の形状が、ユーザの判断に大きく影響するという知見が得られた。そこで、このような形状特徴量25を用いることによって、探索対象の候補となるコロニー領域を含むか否かの判定を容易かつ精度良く行える。
また、上記実施形態の細胞画像解析方法では、形状特徴量25は、i)領域の面積、ii)領域の輪郭長さ、iii)領域の円形度、iv)領域の最小外接矩形のアスペクト比、およびv)細胞コロニー10の全体領域に対するコロニー領域11の面積比、のうち少なくとも1つを含む。このように構成すれば、探索対象の候補となるコロニー領域を含むか否かを判定するために、細胞コロニー10全体やコロニー領域を特徴付ける有用な特徴量を得ることができる。
また、上記実施形態の細胞画像解析方法では、第1画像21をラベル画像21Aに変換するステップ72は、細胞コロニー10を撮像した顕微鏡画像(入力画像23)を入力データとし、コロニー領域(11、12)にセグメンテーション結果のラベルを付与する第2学習済みモデル60により、ラベル画像21Aを生成することを含む。このように構成すれば、様々な細胞コロニー10の形態を学習した第2学習済みモデル60により、精度の高いセグメンテーション処理を行うことができる。上記の通り、顕微鏡画像中に写るコロニー領域11は、多様な形態を有しており、機械学習によらないルールベースの手法によって、多様な形態のコロニー領域11(未分化領域、逸脱領域)を精度良く特定可能なセグメンテーション処理を実現することは難度が高い。これに対して、機械学習の手法を用いれば、ルール化し難い形態的特徴でも学習モデルに学習させることが可能であり、精度の高いセグメンテーション処理を実現することができる。
また、上記実施形態の細胞除去方法では、ステップ71~76により得られた探索対象の候補となるコロニー領域を含むか否かの判定結果35に基づいて、ユーザが所望すると判定されたコロニー領域11のピッキング座標26を設定するステップ156と、ピッキング座標26の細胞を培養容器90からピッキングするステップ157とをさらに備える。このように構成すれば、探索対象の候補となるコロニー領域を含むか否かの判定結果35をユーザに提供するだけでなく、判定結果35に基づいてピッキング対象と判断されるコロニー領域に対して、自動的なピッキング作業を行うことができる。この結果、すなわち、ピッキング対象の探索作業のみならず、探索後のピッキング作業までの自動化または半自動化を図ることができるので、細胞培養に関わるピッキング作業全体におけるユーザの作業負荷を効果的に軽減できる。
(変形例)
図15および図16を参照して、細胞画像解析方法の変形例について説明する。
上記実施形態では、セグメンテーション処理されたラベル画像21Aから細胞コロニー10の形状特徴量25を取得し、形状特徴量25に基づいて判定処理を行う例を示したが、図15および図16に示す変形例では、細胞コロニー10の形状特徴量25を用いることなく判定処理を行う例を示す。なお、変形例による細胞画像解析方法は、上記実施形態と同様のハードウェア構成によって実施できるため、ハードウェアの説明は省略する。
この変形例による細胞画像解析方法は、機械学習された判定用の学習済みモデル55を作成するステップ161と、分化能を有する細胞を含む細胞コロニー10を撮像した第1画像21を取得するステップ162と、第1画像21中の細胞コロニー10における、既に分化を開始した細胞のコロニー領域12と、未分化細胞のコロニー領域11とを特定するセグメンテーション処理を実施し、第1画像21をラベル画像21Aに変換するステップ163と、第1画像21のラベル画像21Aを学習済みモデル55に入力することにより、細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かを判定するステップ164と、を備える。
判定用の学習済みモデル55を作成するステップ161は、予め取得された第2画像22中の細胞コロニー10について、所望のコロニー領域を含むか否かの選択情報40の入力を受け付けるステップ167と、第2画像22をセグメンテーションしたラベル画像22Aを入力データとし、選択情報40を教師データとする機械学習により、学習済みモデル55を作成するステップ168と、を含む。
このように、判定用の学習済みモデル55の作成には、サンプルとなる第2画像22を用いる。まず、ステップ165において、第2画像22が取得される。ステップ166において、選択情報40の入力が受け付けられる。また、ステップ167において、第2画像22に対するセグメンテーション処理が実施される。ステップ165~ステップ167は、図5のステップ81~83と同様である。
変形例では、図5の例と異なり、形状特徴量25が算出されない。変形例では、図15に示すように、形状特徴量25に代えて、第2画像22のラベル画像22Aが入力データとされる。選択情報40が教師データとされる。したがって、ステップ168において、学習モデルは、ラベル画像21Aを入力データとし、選択情報40を教師データとする機械学習により、着目する細胞コロニー10のラベル画像21Aが与えられた時に、その細胞コロニー10が正例(探索対象の候補となるコロニー領域を含む)であるか否かを判別(推測)することを学習する。
機械学習法として、畳み込みニューラルネットワーク、ニューラルネットワーク、SVM、ブースティング等の任意の手法を用いることができる。変形例による判定用の学習済みモデル55には、ラベル領域の識別性能の点から、好ましくは、畳み込みニューラルネットワークを用いるとよい。
細胞画像から、探索対象の候補となるコロニー領域を含む細胞コロニー10か否かを判定しようとする場合、画像に含まれる情報が多様になり過ぎて、判定結果35が収束しにくい可能性がある。しかし、この変形例のように、セグメンテーション処理によるラベル画像22Aを入力画像とすれば、入力画像は3クラス(少なくとも2クラス)のラベル領域で区分された画像となり、たとえば細胞の表面のテクスチャ(模様)や照明光や外来光による画像中の輝度のばらつきなどの情報が除去される。つまり、ラベル画像22Aは、細胞コロニー10の形状の情報だけを選択的に抽出した画像と言える。その結果、ラベル画像22Aを入力画像とする機械学習では、上記実施形態における形状特徴量25と同様に、画像中の細胞コロニー10の形状に基づいて、その細胞コロニー10が正例であるか否かを判別することを、効果的に学習させることが可能となる。
第2画像22を用いた機械学習により判定用の学習済みモデル55が作成されると、第1画像21に対する細胞画像解析の準備が完了する。
図16に示すように、学習済みモデル55を用いた細胞画像解析では、まず、ステップ162において、第1画像21が取得され、ステップ163において、第1画像21に対するセグメンテーション処理により、第1画像21のラベル画像21Aが生成される。ステップ162およびステップ163は、図2に示したステップ71および72と同様である。
ステップ164において、生成された第1画像21のラベル画像21Aを、判定用の学習済みモデル55に入力することにより、細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かの判定結果35が生成される。ステップ169において、生成された判定結果35が出力される。
(変形例による細胞画像解析方法の効果)
この変形例によれば、セグメンテーション処理によって、分化を開始した細胞のコロニー領域12と、未分化細胞のコロニー領域11とのうち、培養目的等に応じてピッキングの対象となり得るコロニー領域を画像中から特定できる。そして、所望のコロニー領域を含むか否かの選択情報40を用いて機械学習させた学習済みモデル55によって、画像中の細胞コロニー10毎に、探索対象の候補となるコロニー領域を含むか否かの判定結果35を得ることができる。この結果、変形例によれば、ユーザがピッキング対象として判断する可能性の高いコロニー領域を含む細胞コロニー10を判定してユーザに示すことが可能となるため、顕微鏡画像中の多数の細胞領域をユーザが1つ1つ観察して判断する必要がなくなる。これにより、細胞培養におけるピッキング対象となる細胞の探索作業に伴うユーザの負荷を、効果的に軽減することができる。
(他の変形例)
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく、特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
たとえば、上記実施形態では、細胞培養における継代のピッキング作業のために、未分化細胞のコロニー領域11を含む細胞コロニー10をピッキング対象として判定する例について示したが、本発明はこれに限られない。上記したように、未分化逸脱細胞のコロニー領域12を含む細胞コロニー10をピッキング対象として判定してもよい。つまり、未分化逸脱細胞のコロニー領域12を探索対象の候補となるコロニー領域であるとして、判定処理を行ってもよい。未分化細胞のコロニー領域11と、未分化逸脱細胞のコロニー領域12とでは、判定基準30が異なるため、判定基準30は、ピッキングの目的に応じて別々に設定される。第1学習済みモデル50(判定用の学習済みモデル55)は、教師データとして入力する選択情報40が未分化細胞のコロニー領域11の場合とは異なるため、別々に作成される。図3に示した記憶部110に、継代用の第1学習済みモデル50と、未分化逸脱細胞の除去用の第1学習済みモデル50と、を別々に記憶させておき、ユーザの目的に応じて使用する学習済みモデルを切り替えるようにしてもよい。
また、上記実施形態では、未分化細胞と、未分化逸脱細胞と、背景と、の3クラスのセグメンテーション処理を行う例を示したが、本発明はこれに限られない。本発明では、たとえば生細胞と死細胞との2クラス分類を行うセグメンテーション処理をさらに行ってもよい。また、ウェルに接着している細胞と剥離している細胞との2クラス分類を行うセグメンテーション処理をさらに行ってもよい。これによれば、たとえば「生細胞」かつ「未分化細胞」のコロニー領域を含む細胞コロニー10のうちから、探索対象の候補となるコロニー領域を含む細胞コロニー10を判定したり、「接着」かつ「未分化細胞」のコロニー領域を含む細胞コロニー10のうちから、探索対象の候補となるコロニー領域を含む細胞コロニー10を判定したりすることができる。さらに別の例として、細胞以外の「異物」のクラスを追加して、培養容器90に混入した異物を発見して除去作業を行えるようにしてもよい。
また、上記実施形態では、細胞画像解析装置100が細胞撮像装置200と通信可能に接続される例を示したが、本発明はこれに限られない。本発明では、細胞画像解析装置100が実行する処理の一部または全部を、ネットワークを介して実行してもよい。
たとえば図17に示す変形例では、遠隔地にある細胞画像解析装置100が、細胞撮像装置200とネットワーク600を介して接続されたサーバ装置として構成されている。ユーザは、細胞撮像装置200を使用して、第1画像21、第2画像22を撮像し、選択情報40を入力する。細胞撮像装置200は、ネットワーク600を介して、細胞画像解析装置100に第1画像21、第2画像22、および選択情報40を送信する。細胞画像解析装置100は、セグメンテーション処理を行って、ラベル画像21Aおよび22Aを生成する。細胞画像解析装置100は、生成したラベル画像22Aと、受信した選択情報40とを用いて、第1学習済みモデル50を作成する。細胞画像解析装置100は、第1画像21のラベル画像21Aを第1学習済みモデル50に入力して、判定処理を実行し、判定結果35を細胞撮像装置200へ送信する。これにより、ユーザは、第1画像21に含まれる細胞コロニー10毎の判定結果35を取得し、判定結果35を利用してピッキング作業を実行できる。
また、上記実施形態では、細胞画像解析装置100がセグメンテーション処理、第1学習済みモデル50の作成、および判定処理を行う例を示したが、本発明はこれに限られない。本発明では、細胞画像解析装置100が実行する処理の一部を、別の装置によって実行してもよい。
たとえば図18に示す変形例では、遠隔地にあるサーバ装置であるデータ処理装置610が、ネットワーク600を介して判定処理装置620と通信可能に接続されている。データ処理装置610は、ユーザが使用するPCである判定処理装置620から顕微鏡画像(第1画像21または第2画像22)を受信して、セグメンテーション処理を行う。データ処理装置610は、たとえば第2学習済みモデル60を用いてセグメンテーション処理を行い、生成したラベル画像(21A、22A)を判定処理装置620に送信する。判定処理装置620は、データ処理装置610から受信した第2画像22のラベル画像22Aと、ユーザから受け付けた選択情報40とを用いた機械学習により、第1学習済みモデル50を作成する。判定処理装置620は、データ処理装置610から受信した第1画像21のラベル画像21Aから細胞コロニー10の形状特徴量25を算出し、第1学習済みモデル50を用いて判定処理を行う。判定処理装置620は、第1学習済みモデル50に形状特徴量25を入力することにより、判定結果35を取得する。ユーザは、第1画像21に含まれる細胞コロニー10毎の判定結果35を取得し、判定結果35を利用してピッキング作業を実行できる。
このように、本発明の細胞画像解析方法は、いわゆるクラウドサービスなどの形態で、ネットワーク接続された複数のコンピュータの協働により、実施されてもよい。
また、上記実施形態では、着目する領域の面積、輪郭長さ、円形度、アスペクト比、細胞コロニー全体に対する面積比などを形状特徴量25として用いる例を示したが、本発明はこれに限られない。本発明では、上記した以外の量を形状特徴量25として用いてもよい。
また、上記実施形態では、第1学習済みモデル50を用いて判定処理を行う例を示したが、本発明はこれに限られない。上記の通り、機械学習の手法を用いることなく、ユーザの好みに応じて設定された閾値や重みなどの判定基準30に基づいて、ルールベースの手法を用いて判定処理を実行してもよい。
また、上記実施形態では、第2学習済みモデル60を用いてセグメンテーション処理を行う例を示したが、本発明はこれに限られない。本発明では、たとえば画像に対する閾値処理や特徴抽出処理などを用いて、機械学習の手法を用いることなく、ルールベースの手法を用いてセグメンテーション処理を実行してもよい。
また、図12に示した例では、細胞撮像装置200を、光学顕微鏡に撮像部230を設けた構成とした例を示したが、本発明はこれに限られない。本発明では、細胞撮像装置200は、細胞の顕微鏡画像の撮像専用の装置であってもよく、光学顕微鏡としての機能を有さなくてもよい。図12に示した例では、細胞撮像装置200が光学顕微鏡として機能するため、ステージ450を電動ステージとした例を示したが、細胞撮像装置200は、固定のステージ450に対して移動可能な撮像部230を備えていてもよい。
[態様]
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
(項目1)
分化能を有する細胞を含む細胞コロニーを撮像した第1画像を取得するステップと、
前記第1画像中の前記細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、前記第1画像をラベル画像に変換するステップと、
前記ラベル画像から前記細胞コロニーの形状特徴量を取得するステップと、
コンピュータを用いて、ユーザから、探索対象のコロニー領域に関する入力を受け付けるステップと、
前記ユーザの入力に基づいて前記形状特徴量の判定基準を設定するステップと、
前記形状特徴量と前記判定基準とに基づいて、前記細胞コロニー毎に、前記探索対象の候補となる前記コロニー領域を含むか否かを判定するステップと、を備える、細胞画像解析方法。
(項目2)
探索対象のコロニー領域に関する入力を受け付けるステップは、予め取得された第2画像中の前記細胞コロニーについて、ユーザから所望の前記コロニー領域を含む否かの選択情報の入力を受け付けるステップを含み、
前記判定基準を設定するステップでは、受け付けた前記選択情報に基づいて、前記判定基準を設定する、項目1に記載の細胞画像解析方法。
(項目3)
前記判定基準を設定するステップは、前記第2画像のラベル画像から取得された前記形状特徴量を入力データとし、前記選択情報を教師データとする機械学習により、前記形状特徴量に対する前記判定基準を獲得した第1学習済みモデルを作成することを含み、
前記探索対象の候補となる前記コロニー領域を含むか否かを判定するステップは、前記第1画像のラベル画像から取得された前記形状特徴量を前記第1学習済みモデルに入力して判定結果を生成することを含む、項目2に記載の細胞画像解析方法。
(項目4)
前記選択情報の入力を受け付けるステップは、前記第2画像または前記第2画像のラベル画像中で、ユーザによる前記コロニー領域の指定を可能にすること、または、ユーザによる前記コロニー領域のピッキングを可能にすること、を含む、項目2に記載の細胞画像解析方法。
(項目5)
前記形状特徴量は、i)前記ラベル画像に含まれる前記細胞コロニーの全体領域、ii)前記細胞コロニーに含まれる前記未分化細胞のコロニー領域、iii)前記細胞コロニーに含まれる前記分化を開始した細胞のコロニー領域、のうち少なくとも1つに関する前記形状特徴量を含む、項目1に記載の細胞画像解析方法。
(項目6)
前記形状特徴量は、i)領域の面積、ii)領域の輪郭長さ、iii)領域の円形度、iv)領域の最小外接矩形のアスペクト比、およびv)前記細胞コロニーの全体領域に対するコロニー領域の面積比、のうち少なくとも1つを含む、項目5に記載の細胞画像解析方法。
(項目7)
前記第1画像をラベル画像に変換するステップは、前記細胞コロニーを撮像した顕微鏡画像を入力データとし、前記コロニー領域にセグメンテーション結果のラベルを付与する第2学習済みモデルにより、前記ラベル画像を生成することを含む、項目1に記載の細胞画像解析方法。
(項目8)
項目1に記載の細胞画像解析方法を用いた細胞除去方法であって、
前記探索対象の候補となる前記コロニー領域を含むか否かの判定結果に基づいて、ユーザが所望すると判定された前記コロニー領域のピッキング座標を設定するステップと、
前記ピッキング座標の細胞を培養容器からピッキングするステップとをさらに備える、細胞除去方法。
(項目9)
分化能を有する細胞を含む細胞コロニーを撮像した顕微鏡画像が入力される記憶部と、
前記顕微鏡画像中の前記細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、前記顕微鏡画像をラベル画像に変換するセグメンテーション処理部と、
探索対象のコロニー領域に関する入力を受け付ける入力部と、
前記顕微鏡画像に含まれる前記細胞コロニー毎に、前記探索対象の候補となる前記コロニー領域を含むか否かを判定する判定処理部と、を備え、
前記判定処理部は、前記ラベル画像から前記細胞コロニーの形状特徴量を取得し、前記形状特徴量と、前記ユーザの入力に基づいて設定された前記形状特徴量の判定基準とに基づいて、前記コロニー領域の判定を行うように構成されている、細胞画像解析装置。
(項目10)
機械学習された判定用の学習済みモデルを作成するステップと、
分化能を有する細胞を含む細胞コロニーを撮像した第1画像を取得するステップと、
前記第1画像中の前記細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、前記第1画像をラベル画像に変換するステップと、
前記第1画像のラベル画像を前記学習済みモデルに入力することにより、前記細胞コロニー毎に、前記探索対象の候補となる前記コロニー領域を含むか否かを判定するステップと、を備え、
前記学習済みモデルを作成するステップは、
予め取得された第2画像中の前記細胞コロニーについて、所望の前記コロニー領域を含む否かの選択情報の入力を受け付けるステップと、
前記第2画像をセグメンテーションしたラベル画像を入力データとし、前記選択情報を教師データとする機械学習により、前記学習済みモデルを作成するステップと、を含む、細胞画像解析方法。
10 細胞コロニー
11 コロニー領域(未分化細胞のコロニー領域)
12 コロニー領域(既に分化を開始した細胞のコロニー領域)
21 第1画像
21A 第1画像のラベル画像
22 第2画像
22A 第2画像のラベル画像
25 形状特徴量
26 ピッキング座標
35 判定結果
40 選択情報
50 第1学習済みモデル
55 学習済みモデル
60 第2学習済みモデル
90 培養容器
100 細胞画像解析装置
110 記憶部
121 セグメンテーション処理部
122 判定処理部

Claims (12)

  1. 分化能を有する細胞を含む細胞コロニーを撮像した第1画像を取得するステップと、
    前記第1画像中の前記細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、前記第1画像をラベル画像に変換するステップと、
    前記ラベル画像から前記細胞コロニーの形状特徴量を取得するステップと、
    コンピュータを用いて、ユーザから、探索対象のコロニー領域に関する入力を受け付けるステップと、
    前記ユーザの入力に基づいて前記形状特徴量の判定基準を設定するステップと、
    前記形状特徴量と前記判定基準とに基づいて、前記細胞コロニー毎に、前記探索対象の候補となる前記コロニー領域を含むか否かを判定するステップと、を備える、細胞画像解析方法。
  2. 探索対象のコロニー領域に関する入力を受け付けるステップは、予め取得された第2画像中の前記細胞コロニーについて、ユーザから所望の前記コロニー領域を含むか否かの選択情報の入力を受け付けるステップを含み、
    前記判定基準を設定するステップでは、受け付けた前記選択情報に基づいて、前記判定基準を設定する、請求項1に記載の細胞画像解析方法。
  3. 前記判定基準を設定するステップは、前記第2画像のラベル画像から取得された前記形状特徴量を入力データとし、前記選択情報を教師データとする機械学習により、前記形状特徴量に対する前記判定基準を獲得した第1学習済みモデルを作成することを含み、
    前記探索対象の候補となる前記コロニー領域を含むか否かを判定するステップは、前記第1画像のラベル画像から取得された前記形状特徴量を前記第1学習済みモデルに入力して判定結果を生成することを含む、請求項2に記載の細胞画像解析方法。
  4. 前記選択情報の入力を受け付けるステップは、前記第2画像または前記第2画像のラベル画像中で、ユーザによる前記コロニー領域の指定を可能にすること、または、ユーザによる前記コロニー領域のピッキングを可能にすること、を含む、請求項2に記載の細胞画像解析方法。
  5. 前記形状特徴量は、i)前記ラベル画像に含まれる前記細胞コロニーの全体領域、ii)前記細胞コロニーに含まれる前記未分化細胞のコロニー領域、iii)前記細胞コロニーに含まれる前記分化を開始した細胞のコロニー領域、のうち少なくとも1つに関する前記形状特徴量を含む、請求項1に記載の細胞画像解析方法。
  6. 前記形状特徴量は、i)領域の面積、ii)領域の輪郭長さ、iii)領域の円形度、iv)領域の最小外接矩形のアスペクト比、およびv)前記細胞コロニーの全体領域に対するコロニー領域の面積比、のうち少なくとも1つを含む、請求項5に記載の細胞画像解析方法。
  7. 前記第1画像をラベル画像に変換するステップは、前記細胞コロニーを撮像した顕微鏡画像を入力データとし、前記コロニー領域にセグメンテーション結果のラベルを付与する第2学習済みモデルにより、前記ラベル画像を生成することを含む、請求項1に記載の細胞画像解析方法。
  8. 請求項1に記載の細胞画像解析方法を用いた細胞除去方法であって、
    前記探索対象の候補となる前記コロニー領域を含むか否かの判定結果に基づいて、ユーザが所望すると判定された前記コロニー領域のピッキング座標を設定するステップと、
    前記ピッキング座標の細胞を培養容器からピッキングするステップとをさらに備える、細胞除去方法。
  9. 前記第1画像を前記ラベル画像に変換するステップにおいて、前記第1画像を、前記分化を開始した細胞のコロニー領域と、前記未分化細胞のコロニー領域との少なくとも2つのラベル領域のうちの、特定された領域の前記ラベル領域を含む前記ラベル画像に変換し、
    前記探索対象の候補となる前記コロニー領域を含むか否かを判定するステップにおいて、コンピュータを用いて、前記ラベル画像から取得された前記ラベル領域の前記形状特徴量と、ユーザから入力された前記判定基準とに基づいて、前記第1画像中の前記細胞コロニー毎に、前記探索対象の候補となる前記コロニー領域を含むか否かを判定する、請求項1に記載の細胞画像解析方法。
  10. 前記第1画像を前記ラベル画像に変換するステップにおいて、前記第1画像を、前記分化を開始した細胞のコロニー領域と、前記未分化細胞のコロニー領域との少なくとも2つのラベル領域のうちの、特定された領域の前記ラベル領域を含む前記ラベル画像に変換し、
    前記探索対象のコロニー領域に関する入力を受け付けるステップにおいて、コンピュータを用いて、ユーザから、探索対象のコロニー領域の選択に関する入力を受け付け、
    前記探索対象の候補となる前記コロニー領域を含むか否かを判定するステップにおいて、コンピュータを用いて、前記ラベル画像から取得された前記ラベル領域の前記形状特徴量と、ユーザから入力された前記判定基準とに基づいて、前記第1画像中の前記細胞コロニー毎に、前記探索対象の候補となる前記コロニー領域を含むか否かを判定する、請求項1に記載の細胞画像解析方法。
  11. 分化能を有する細胞を含む細胞コロニーを撮像した顕微鏡画像が入力される記憶部と、
    前記顕微鏡画像中の前記細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、前記顕微鏡画像をラベル画像に変換するセグメンテーション処理部と、
    探索対象のコロニー領域に関する入力を受け付ける入力部と、
    前記顕微鏡画像に含まれる前記細胞コロニー毎に、前記探索対象の候補となる前記コロニー領域を含むか否かを判定する判定処理部と、を備え、
    前記判定処理部は、前記ラベル画像から前記細胞コロニーの形状特徴量を取得し、前記形状特徴量と、ユーザの入力に基づいて設定された前記形状特徴量の判定基準とに基づいて、前記コロニー領域の判定を行うように構成されている、細胞画像解析装置。
  12. 機械学習された判定用の学習済みモデルを作成するステップと、
    分化能を有する細胞を含む細胞コロニーを撮像した第1画像を取得するステップと、
    前記第1画像中の前記細胞コロニーにおける、既に分化を開始した細胞のコロニー領域と、未分化細胞のコロニー領域とを特定するセグメンテーション処理を実施し、前記第1画像をラベル画像に変換するステップと、
    前記第1画像のラベル画像を前記学習済みモデルに入力することにより、前記細胞コロニー毎に、探索対象の候補となる前記コロニー領域を含むか否かを判定するステップと、を備え、
    前記学習済みモデルを作成するステップは、
    予め取得された第2画像中の前記細胞コロニーについて、所望の前記コロニー領域を含むか否かの選択情報の入力を受け付けるステップと、
    前記第2画像をセグメンテーションしたラベル画像を入力データとし、前記選択情報を教師データとする機械学習により、前記学習済みモデルを作成するステップと、を含む、細胞画像解析方法。
JP2021532644A 2019-07-18 2019-07-18 細胞画像解析方法および細胞画像解析装置 Active JP7342950B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/028268 WO2021009906A1 (ja) 2019-07-18 2019-07-18 細胞画像解析方法および細胞画像解析装置

Publications (2)

Publication Number Publication Date
JPWO2021009906A1 JPWO2021009906A1 (ja) 2021-01-21
JP7342950B2 true JP7342950B2 (ja) 2023-09-12

Family

ID=74210370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021532644A Active JP7342950B2 (ja) 2019-07-18 2019-07-18 細胞画像解析方法および細胞画像解析装置

Country Status (4)

Country Link
US (1) US20220148282A1 (ja)
JP (1) JP7342950B2 (ja)
CN (1) CN114127307A (ja)
WO (1) WO2021009906A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470037A (zh) 2020-03-31 2021-10-01 阿里巴巴集团控股有限公司 数据处理方法、装置及系统
CN113469180A (zh) * 2020-03-31 2021-10-01 阿里巴巴集团控股有限公司 医学图像的处理方法和系统、数据处理方法
WO2023008428A1 (ja) * 2021-07-29 2023-02-02 株式会社島津製作所 細胞画像解析方法
CN115700821B (zh) * 2022-11-24 2023-06-06 广东美赛尔细胞生物科技有限公司 一种基于图像处理的细胞识别方法及系统
WO2024138636A1 (zh) * 2022-12-30 2024-07-04 深圳华大生命科学研究院 细胞图像配准方法、系统、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201909A (ja) 2012-03-27 2013-10-07 National Institute Of Advanced Industrial Science & Technology 細胞画像判定装置、方法、並びにプログラム
WO2014192184A1 (ja) 2013-05-31 2014-12-04 富士ゼロックス株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
WO2015025506A1 (ja) 2013-08-22 2015-02-26 富士フイルム株式会社 幹細胞分化判定装置および方法並びにプログラム
WO2015141275A1 (ja) 2014-03-17 2015-09-24 富士フイルム株式会社 細胞領域表示制御装置および方法並びにプログラム
JP2016154482A (ja) 2015-02-24 2016-09-01 シンフォニアテクノロジー株式会社 除去領域設定方法、除去領域設定装置およびプログラム
WO2017056600A1 (ja) 2015-09-28 2017-04-06 株式会社Screenホールディングス 画像処理方法および制御プログラム
WO2018105432A1 (ja) 2016-12-06 2018-06-14 富士フイルム株式会社 細胞画像評価装置および細胞画像評価制御プログラム
WO2019044424A1 (ja) 2017-08-29 2019-03-07 富士フイルム株式会社 撮影制御装置、方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5740101B2 (ja) * 2010-04-23 2015-06-24 国立大学法人名古屋大学 細胞評価装置、インキュベータ、細胞評価方法、細胞評価プログラムおよび細胞の培養方法
US9619881B2 (en) * 2013-09-26 2017-04-11 Cellogy, Inc. Method and system for characterizing cell populations
JP6595156B2 (ja) * 2014-03-04 2019-10-23 富士フイルム株式会社 細胞画像取得装置および方法並びにプログラム
JP7250793B2 (ja) * 2017-12-07 2023-04-03 ベンタナ メディカル システムズ, インコーポレイテッド 生体画像における連帯的細胞および領域分類のための深層学習システムならびに方法
CN111837157B (zh) * 2018-03-08 2024-08-23 株式会社岛津制作所 细胞图像解析方法、细胞图像解析装置、及学习模型创建方法
AU2019236297B2 (en) * 2018-03-16 2024-08-01 The United States Of America, As Represented By The Secretary, Department Of Health & Human Services Using machine learning and/or neural networks to validate stem cells and their derivatives for use in cell therapy, drug discovery, and diagnostics
US11830195B2 (en) * 2018-08-06 2023-11-28 Shimadzu Corporation Training label image correction method, trained model creation method, and image analysis device
JP7049974B2 (ja) * 2018-10-29 2022-04-07 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201909A (ja) 2012-03-27 2013-10-07 National Institute Of Advanced Industrial Science & Technology 細胞画像判定装置、方法、並びにプログラム
WO2014192184A1 (ja) 2013-05-31 2014-12-04 富士ゼロックス株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
WO2015025506A1 (ja) 2013-08-22 2015-02-26 富士フイルム株式会社 幹細胞分化判定装置および方法並びにプログラム
WO2015141275A1 (ja) 2014-03-17 2015-09-24 富士フイルム株式会社 細胞領域表示制御装置および方法並びにプログラム
JP2016154482A (ja) 2015-02-24 2016-09-01 シンフォニアテクノロジー株式会社 除去領域設定方法、除去領域設定装置およびプログラム
WO2017056600A1 (ja) 2015-09-28 2017-04-06 株式会社Screenホールディングス 画像処理方法および制御プログラム
WO2018105432A1 (ja) 2016-12-06 2018-06-14 富士フイルム株式会社 細胞画像評価装置および細胞画像評価制御プログラム
WO2019044424A1 (ja) 2017-08-29 2019-03-07 富士フイルム株式会社 撮影制御装置、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
月刊メディカル・サイエンス・ダイジェスト,2018年,Vol.44, No.9,pp.483-486

Also Published As

Publication number Publication date
US20220148282A1 (en) 2022-05-12
JPWO2021009906A1 (ja) 2021-01-21
CN114127307A (zh) 2022-03-01
WO2021009906A1 (ja) 2021-01-21

Similar Documents

Publication Publication Date Title
JP7342950B2 (ja) 細胞画像解析方法および細胞画像解析装置
JP6981533B2 (ja) 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法
JP6791245B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5244801B2 (ja) 細胞及び/又は細胞コロニーの自動化した除去のための方法及び装置
US8588504B2 (en) Technique for determining the state of a cell aggregation image processing program and image processing device using the technique, and method for producing a cell aggregation
JP2021515240A (ja) 定量的バイオマーカデータのオーバレイを有する病理学用拡張現実顕微鏡
JP5145487B2 (ja) 観察プログラムおよび観察装置
CN110476101A (zh) 用于病理学的增强现实显微镜
WO2011016189A1 (ja) 細胞の分類手法、この手法を用いた画像処理プログラム及び画像処理装置、並びに細胞塊の製造方法
US20030179916A1 (en) High-throughput cell identification and isolation method and apparatus
Yang et al. A CNN-based active learning framework to identify mycobacteria in digitized Ziehl-Neelsen stained human tissues
WO2017150194A1 (ja) 画像処理装置、画像処理方法及びプログラム
EP4130843A9 (en) Microscope system, projection unit, and sperm sorting assistance method
WO2010146802A1 (ja) 細胞塊の状態判別手法、この手法を用いた画像処理プログラム及び画像処理装置、並びに細胞塊の製造方法
JPWO2009031283A1 (ja) 培養装置、培養情報管理方法およびプログラム
WO2019171909A1 (ja) 画像処理方法、画像処理装置及びプログラム
JP2011004638A (ja) 受精卵観察の画像処理方法、画像処理プログラム及び画像処理装置
Niederlein et al. Image analysis in high content screening
WO2022202368A1 (ja) 細胞計数方法、細胞計数のための機械学習モデルの構築方法、コンピュータープログラムおよび記録媒体
Kucarov et al. Single cell position determination and transformation from static high-resolution digital image to laser-microdissector coordinate system using image processing techniques
WO2021166089A1 (ja) 評価支援装置、評価支援システム、評価支援方法およびプログラム
EP4125065A1 (en) Image processing method and classification model construction method
JP2022174740A (ja) 学習支援システムおよび学習支援方法
Pérez et al. Deep Learning-Based Instance Segmentation of Neural Progenitor Cell Nuclei in Fluorescence Microscopy Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R151 Written notification of patent or utility model registration

Ref document number: 7342950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151