JP6931870B2 - 細胞の再プログラム化を検出するための方法及び装置 - Google Patents

細胞の再プログラム化を検出するための方法及び装置 Download PDF

Info

Publication number
JP6931870B2
JP6931870B2 JP2017026477A JP2017026477A JP6931870B2 JP 6931870 B2 JP6931870 B2 JP 6931870B2 JP 2017026477 A JP2017026477 A JP 2017026477A JP 2017026477 A JP2017026477 A JP 2017026477A JP 6931870 B2 JP6931870 B2 JP 6931870B2
Authority
JP
Japan
Prior art keywords
image
cells
cell
equation
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017026477A
Other languages
English (en)
Other versions
JP2018173273A (ja
Inventor
元翔 張
元翔 張
横田 秀夫
秀夫 横田
訓也 阿部
訓也 阿部
明達 蔡
明達 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RIKEN Institute of Physical and Chemical Research
Original Assignee
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RIKEN Institute of Physical and Chemical Research filed Critical RIKEN Institute of Physical and Chemical Research
Priority to JP2017026477A priority Critical patent/JP6931870B2/ja
Priority to US15/894,945 priority patent/US10586327B2/en
Publication of JP2018173273A publication Critical patent/JP2018173273A/ja
Application granted granted Critical
Publication of JP6931870B2 publication Critical patent/JP6931870B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6408Fluorescence; Phosphorescence with measurement of decay time, time resolved fluorescence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6428Measuring fluorescence of fluorescent products of reactions or of fluorochrome labelled reactive substances, e.g. measuring quenching effects, using measuring "optrodes"
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • G01N21/6458Fluorescence microscopy
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6486Measuring fluorescence of biological material, e.g. DNA, RNA, cells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/5005Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving human or animal cells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/58Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving labelled substances
    • G01N33/582Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving labelled substances with fluorescent label
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6428Measuring fluorescence of fluorescent products of reactions or of fluorochrome labelled reactive substances, e.g. measuring quenching effects, using measuring "optrodes"
    • G01N2021/6439Measuring fluorescence of fluorescent products of reactions or of fluorochrome labelled reactive substances, e.g. measuring quenching effects, using measuring "optrodes" with indicators, stains, dyes, tags, labels, marks
    • G01N2021/6441Measuring fluorescence of fluorescent products of reactions or of fluorochrome labelled reactive substances, e.g. measuring quenching effects, using measuring "optrodes" with indicators, stains, dyes, tags, labels, marks with two or more labels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Hematology (AREA)
  • Urology & Nephrology (AREA)
  • Evolutionary Computation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Biotechnology (AREA)
  • Cell Biology (AREA)
  • Microbiology (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Tropical Medicine & Parasitology (AREA)
  • Data Mining & Analysis (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)

Description

本開示は、細胞の再プログラム化プロセスの特定に関し、特に、再プログラム化を受けている細胞、及び再プログラム化された細胞を検出するための方法及び装置に関する。
〔発明者又は共同発明者による先行開示に関する陳述〕
本願に記載された本発明の対象の大半は、発明者のYuan-Hsiang Chang、Hideo Yokota、Kuniya Abe及びMing-Dar Tsaiによって、“Detection and Localization of Mouse Induced Pluripotent Stem Cell Formation using Time-Lapse Fluorescence Microscopy Images.”というタイトルの論文において公開された。当該論文は、2016年8月16日から2016年8月20日までに開催されたIEEE Engineering in Medicine and Biology Society (EMBC)の2016年第38回年次国際会議中に開示され、2016年10月18日にIEEE Xploreによってオンラインで公開された。従って、当該公開又は開示は、本願の出願日前の6か月以内に、本発明の発明主体の全てのメンバーによって行われ、及び/又は、本発明の発明者である全てのメンバーによって行われた。
人工多能性幹(iPS:induced pluripotent stem)細胞は、分化型細胞から産生される多能性細胞である。線維芽細胞などの細胞は、ウイルスベクター、アデノウイルス、プラスミド及び裸のDNAを用いて、特定の転写因子をコードする遺伝子を細胞に導入することによって、多能性状態に誘導される。iPS細胞は、同種異系免疫拒絶の潜在的な問題を回避することができるため、患者特有の細胞に基づいた再生医療のための理想的な源を与える。
iPS細胞は、ヒトの細胞を含む種々の哺乳類細胞から確立されており、インビトロで分化型細胞へ誘導し、組織や臓器様の構造体を形成することに成功している。現在、iPS細胞由来の網膜色素上皮などの臨床調査及び臨床試験が開始されている。iPS細胞の実用的な医療用途を促進するために、iPS細胞の大規模な増殖と、iPS形成中に発生する可能性のある変異を修正するための方法とが、急務である。
しかし、ウイルスベクターを用いた場合、iPS細胞を誘導する効率は、一般的に低く、0.001%から0.1%の範囲である。従って、膨大な数の非iPS細胞のうちで、小さいサブセットの細胞のみが、iPS細胞になる。よって、再プログラム化を受けている細胞を特定し、追跡することは、厄介な課題である。さらに、今のところ、分化型細胞からiPS細胞への詳細な“経路図”は、まだ得られていない。
再プログラム化プロセスを追跡する1つのアプローチは、Oct4などの多能性遺伝子のプロモータによって駆動される蛍光レポーター遺伝子を用いることである。次に、経時的蛍光顕微鏡分析が、再ブログラム化細胞の一連の画像をキャプチャするために使用され、これは、再プログラム化プロセスの概要を与える。そうは言うものの、経時的画像の手動による分析は、大きな労力を要し、時間がかかり、多くの場合、不正確である。
上述の点で、関連分野において、再プログラム化プロセスを受けている細胞、又は再プログラム化された細胞を自動的に検出することができる方法を提供する必要性が存在する。
以下で、読者に基本的な理解を提供するために、本開示の簡略化された概要を示す。この概要は、本開示の広範な概要ではなく、それは、本発明の主要な又は重要な要素を特定するものでも、本発明の範囲を規定するものでもない。そのたった1つの目的は、後で示されるより詳細な説明の前置きとして、簡略化された形で本願明細書に開示されるいくつかのコンセプトを提供することである。
一態様において、本開示は、1つ以上の細胞の蛍光顕微鏡画像から、再プログラム化を受けている細胞、及び再プログラム化された細胞を自動的に特定する方法を規定する。いくつかの実施形態では、当該方法は、自動的に、一連の蛍光顕微鏡画像を処理し、上記再プログラム化プロセスの開始、及び上記再プログラム化プロセスが生じる位置を検出する。本開示の一実施形態によれば、
本開示のいくつかの実施形態によれば、当該方法は、以下の(a)〜(d)の工程を含む。(a)グレースケール変換、及びアンシャープマスキングを、上記蛍光顕微鏡画像に適用し、強調画像を取得する工程、(b)上記強調画像を2値画像に変換する工程、(c)上記2値画像において、細胞に対して細胞様楕円境界を特定する工程であって、各細胞様楕円境界が、孤立細胞、又は細胞群を示す工程、並びに(d)各孤立細胞又は各細胞群をランダムな色で標識化し、着色された複数のコンポーネントを取得する工程であって、各着色コンポーネントが、再プログラム化を受けている1つ以上の細胞、又は再プログラム化された1つ以上の細胞を示す、工程。
いくつかの任意の実施形態によると、上記(a)の工程における上記アンシャープマスキングは、式1に従ったアンシャープマスキングを適用することによって実行され、
Figure 0006931870
上記fs(x,y)は、上記強調画像であり、x及びyは、上記画像の座標であり、*は、上記画像のコンボリューションを示し、Gσは、標準偏差σ、及びフィルタサイズ2σ+1のガウジアンフィルタである。いくつかの実施形態では、上記細胞の直径が上記フィルタサイズである。
いくつかの実施形態によると、 上記(b)の工程は、式2に従って実行され、
Figure 0006931870
Tは、上記蛍光顕微鏡画像のための閾値である。例えば、いくつかの実施形態における上記閾値は、3である。
いくつかの任意の実施形態において、上記方法は、(e)上記着色コンポーネントの各ピクセルの滑らかさをピクセルの局所領域と比較して評価する工程をさらに含む。より具体的には、上記(e)の工程は、(e−1)及び(e−2)によって実行される。
(e−1)式3に従って、各ピクセルの画像階調度M(x,y)を決定する工程であって、
Figure 0006931870
Figure 0006931870
及び
Figure 0006931870
であり、
Gx及びGyは、それぞれ、x方向及びy方向における上記画像階調を示している工程、及び、
(e−2)式4に従って、各ピクセルの上記滑らかさσ(x,y)を決定する工程であって、
Figure 0006931870
Nは、ピクセルの総数であり、μは、上記局所領域における平均ピクセル値である。
さらに、上記方法は、(f)式5の基準を満たす曖昧な領域Rの存在を決定する工程をさらに含む。
Figure 0006931870
いくつかの実施形態では、上記曖昧な領域は、細胞クラスターを示す。
本開示の任意の実施形態によると、上記方法は、上記1つ以上の細胞の一連の蛍光顕微鏡画像に対して、工程(a)から工程(f)を実行し、上記細胞の再プログラム化の開始を特定することを含む。
別の態様では、本開示は、プログラムで制御可能なデバイス(プロセッサ又はコンピュータ)によって実行された場合、1つ以上の細胞の蛍光顕微鏡画像から、再プログラム化を受けている細胞、及び再プログラム化された細胞を特定するための本願の方法を、上記デバイスに実行させる、コンピュータが読み取り可能な命令(コンピュータプログラム又はソフトウェア)が符号化された、有形のコンピュータ可読記憶媒体を規定する。本願明細書に記載されている本発明に係る方法の全実施形態又は種々の実施形態は、上記プログラムで制御可能なデバイスにおいて実行された場合、これらの符号化された命令によって実行され得る。
さらなる別の態様では、本発明は、1つ以上の細胞の蛍光顕微鏡画像から、再プログラム化を受けている細胞、及び再プログラム化された細胞を特定するためのシステムを規定する。
ある実施形態によると、上記システムは、1つ以上の細胞の蛍光顕微鏡画像を取得するように構成された装置と、制御ユニットであって、プロセッサ及び複数の命令を保存するためのメモリを備え、上記複数の命令が上記プロセッサによって実行された場合、当該方法を上記プロセッサに実行させる、制御ユニットと、を備えている。本願明細書に記載されている本発明に係る方法の全実施形態又は種々の実施形態は、上記プロセッサによって実行され得る。
本開示の実施形態の別の態様は、iPS検出装置を規定する。上記iPS検出装置は、入力部、CNN部、及び確率マップ生成部を備え、上記入力部は、入力画像をCNN部に供給し、上記CNN部は、上記入力画像におけるCNNディープラーニングフレームワーク(CNN deep learning framework)に基づいた計算を実行して各分類の確率を出力し、上記確率マップ生成部は、上記CNN部によって供給された確率に基づいて、少なくとも1つの分類の確率マップを生成する。
本開示の付随する特徴及び効果の多くは、添付の図面と関連して検討された下記の詳細な説明を参照することにより、より理解される。
当該特許書類又は出願書類は、カラーで製作された少なくとも1つの図面を含む。必要な手数料を請求し、必要な手数料が納付された上で、カラーの図面を伴ったこの特許公報又は特許出願公報の写しが、特許庁によって提供される。
本願明細書は、添付図面を考慮して整理された下記の詳細な説明から、より理解される。
図1は、本開示の実施形態に係る1つ以上の細胞の蛍光顕微鏡画像から、再プログラム化を受けている細胞、及び再プログラム化された細胞を特定するための方法を実行するための工程を説明するフローチャートである。 図2Aは、本開示の一実施例に係るマウスiPS細胞培養物の蛍光顕微鏡画像である。 図2Bは、図2Aにおけるハイライト領域の拡大図である。 図3は、当該方法の実施例を示し、パネル(a)は、元の蛍光画像であり、パネル(b)は、前処理工程後の画像であり、パネル(c)は、細胞検出工程後の画像であり、パネル(d)は、元の明視野コントラスト画像である。 図4は、当該方法の実施例を示し、パネル(a)は、元の蛍光画像であり、パネル(b)は、元の明視野コントラスト画像であり、パネル(c)及び(d)は、階調度の標準偏差を変えてクラスタリング工程を行った後の画像である。 図5は、実施形態2におけるシステムのブロック図を示す。 図6は、実施形態3における各分類に対する例示的な画像を示す。 図7は、実施形態3に係るiPS検出装置のブロック図である。 図8は、実施形態3における各分類に対するトレーニング画像の詳細な手順の例を示す。 図9は、実施形態3における、画像上のiPSを検出するための方法を実行するための工程を説明するフローチャートである。 図10は、実施形態3における、画像からiPSを検出する詳細な手順の例を示す。 図11は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図12は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図13は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図14は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図15は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図16は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図17は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図18は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図19は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図20は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図21は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図22は、上記例における、テスト画像及びトレーニング画像のうちの1つを示す。 図23は、実施形態4に係る例示的な分類された領域を示す。 図24は、実施形態4における、クラス5(iPS)の例示的なテンプレート示す。 図25は、実施形態4における、トレーニング方法及びテスト方法を実行するための工程を説明するフローチャートである。 図26は、実施形態4におけるトレーニング方法で実行される詳細な手順の例を示す。 図27は、実施形態4におけるiPS検出装置によって実行される詳細な手順の例を示す。 図28は、結果を示す。 図29は、結果を示す。
〔実施形態の説明〕
添付図面に関連して、以下に与えられた詳細な説明は、本実施例の説明として意図されるが、本実施例が構成される唯一の形態、又は本実施例が利用される唯一の形態だけを示すことは意図していない。当該説明は、当該実施例の機能を示し、当該実施例を構成し、処理するための工程の手順を示す。しかし、同一の機能及び手順、又は同等の機能及び手順が、異なる実施例によって達成されてもよい。
便宜上、本願明細書、実施例、及び添付された特許請求の範囲で採用される特定の用語を、ここに纏める。本願明細書で別に定義されない限り、本開示で採用された科学技術用語は、当業者によって一般的に理解され、使用される意味を有する。
文脈によって別に要求されない限り、単数形の用語は、同一のものの複数の形態を含み、複数形の用語は単数も含む。また、本願明細書、及び特許請求の範囲で用いられるように、用語「少なくとも1つの」及び「1つ以上の」は、同一の意味を有し、1つ、2つ、3つ、又はそれ以上を含む。さらに、この明細書及び添付された特許請求の範囲にわたって用いられる用語「A、B及びCの少なくとも1つ」「A、B又はCの少なくとも1つ」及び「A、B及び/又はCの少なくとも1つ」は、A単独、B単独、C単独、A及びB共に、B及びC共に、A及びC共に、並びに、A、B及びC共に、を対象とすることを意図している。
本発明の広範な範囲を示す数値範囲及び数値パラメータが近似であるにもかかわらず、特定の実施例で示された数値は、可能な限り正確に報告されている。しかし、何れの数値も、各実験の測定において見出される標準偏差から必然的に生じたいくらかの誤差を本質的に含む。また、本明細書で使用されるように、用語「約」は、通常、所定の値又は範囲の10%、5%、1%又は0.5%以内を意味する。あるいは、用語「約」は、当業者によって判断される場合の、平均の許容範囲内の標準偏差以内を意味する。動作例/作業例以外において、又は、別に明白に指定しない限り、本明細書に開示されている数値範囲、量、値及びパーセンテージ、例えば、材料の量、期間、温度、動作条件、量の比などの、数値範囲、量、値及びパーセンテージは、全ての場合で、用語「約」によって修正されるものとして理解されるべきである。従って、それとは反対のことを示さない限り、本開示及び添付された特許請求の範囲に記載された数値パラメータは、意図するように変更し得る近似値である。最低限でも、各数値パラメータは、少なくとも、報告された有効数字の数を考慮し、通常の丸め処理の技術を適用することによって解釈されるべきである。範囲は、本願明細書において、一方の端点から別の端点までの範囲、又は、2つの端点の間の範囲で表現される。本願明細書に開示された全ての範囲は、別に指定されない限り、端点を含む。
本願明細書で用いられるように、用語「多能性」は、異なる条件下で、3つ全ての胚細胞層、すなわち、内胚葉(例えば、内蔵組織)、中胚葉(血液、筋肉及び血管を含む)、及び外胚葉(皮膚及び神経など)、の細胞型特性に分化する能力を有する細胞のことをいう。従って、本願明細書で使用される用語「多能性」又は「多能性状態」は、細胞が3つ全ての胚葉に分化する能力を備える細胞の発生能を示している。
本開示に通じて、用語「人工多能性幹細胞」又はiPS細胞は、分化した成熟細胞から作成された幹細胞であり、3つ全ての胚葉又は皮層の組織に分化することができる細胞に誘導されたもの又は変化したもの(すなわち、「再プログラム化される」)を意味する。
本願明細書で使用される用語「再プログラム化」は、分化型成熟細胞の分化した状態を多能性のフェノタイプに変化させるプロセスを示す。換言すれば、再プログラム化は、より高い発生能を有する状態、すなわち、より分化していない状態に遡った状態、に細胞を駆動するプロセスを示す。本願明細書に記載の態様のいくつかの実施形態では、再プログラム化は、多能性状態を有する細胞の発生能への、分化状態の完全又は部分的な復帰、すなわち、細胞の発生能の増強を包含する。よって、いくつかのケースでは、本発明の再プログラム化は、脱分化した及び/又は若返った少なくとも1つの細胞を与え、特に、複数の分化能を有する細胞、特に、多能性幹細胞を与える。結果として得られる細胞は、本明細書において、「再プログラム化された細胞」として示される。
生きた細胞の蛍光イメージングは、胚形成及び細胞分化などの、細胞の動的なプロセス及びイベントの研究に対する強力な手段である。イメージング技術の進歩に伴って、蛍光イメージングは、高い空間分解能及び時間分解能をもたらすことができる。
(実施形態1)
上記を考慮して、本開示の第1の態様は、1つ以上の細胞の蛍光顕微鏡画像から、再プログラム化を受けている細胞、及び再プログラム化された細胞を特定するための方法を規定する。
図1は、本開示の実施形態に係る方法100を説明するフローチャートである。図1によると、蛍光顕微鏡画像は、最初に、画像処理工程S101の対象となる。
具体的には、画像処理工程S101は、グレースケール変換工程を含み、当該工程の次に、アンシャープマスキング工程が続く。これらの工程は、ノイズを除去するように設計され、これにより、蛍光顕微鏡画像の信号対雑音比を向上させる。
アンシャープマスキング工程に関して、アンシャープマスキングは、グレースケールに変換された蛍光顕微鏡画像f(x,y)に適用し、式1による強調画像fs(x,y)を取得する。
Figure 0006931870
ここで、fs(x,y)は、強調画像であり、x及びyは、画像の座標であり、*は、画像のコンボリューションを示し、Gσは、標準偏差σ、及びフィルタサイズ2σ+1のガウジアンフィルタである。いくつかの任意の実施形態では、フィルタサイズとして、細胞の直径のサイズを選択している(例えば、約20μm)。
次に、画像処理工程S101による強調画像は、細胞検出工程S103の対象となる。この段階は、全ての孤立した細胞又は複数の細胞を検出することを目的とする。最初に、画像2値化工程において、強調画像fs(x,y)を、式2によって2値画像g(x,y)に変換する。
Figure 0006931870
ここで、Tは、蛍光顕微鏡画像のための閾値である。いくつかの任意の実施形態では、Tは、蛍光顕微鏡画像のための、3の値を有する閾値である。
さらに、細胞検出工程S103において、2値画像は、モルフォロジー画像処理工程の対象となる。当該モルフォロジー画像処理工程において、蛍光細胞(再プログラム化しているiPS細胞、及び再プログラム化されたiPS細胞)の輪郭を分別する。例えば、モルフォロジークローズ技術(すなわち、モルフォロジーの膨張(dilation)の後に収縮(erosion))が、いくつかの実施形態においては、細胞様楕円境界を得るために使用される。ここで、各細胞様楕円境界は、孤立細胞又は細胞群を示す。
細胞検出工程S103の最後の工程は、結合コンポーネント標識化工程である。当該結合コンポーネント標識化工程において、各孤立細胞又は細胞群(すなわち、各細胞様楕円境界によって限定された領域)は、ランダムな色で標識化され、着色された複数のコンポーネントが得られる。ここで、各着色コンポーネントは、再プログラム化を受けている1つ以上の細胞、又は、再プログラム化された1つ以上の細胞を示す。理解されるように、この工程では、任意の2つ以上の隣接した孤立細胞又は隣接した細胞群を、好ましくは、異なる色で標識化する。さらに、蛍光顕微鏡画像の倍率から判断して、画像における単一の孤立細胞のピクセルサイズを確認することができる。この情報は、着色コンポーネントが、蛍光を発する孤立した1つの細胞を示しているか、又は細胞群を示しているかを決定するために使用され得る。例えば、各ピクセルの幅が約1μmである場合、検出された孤立した蛍光領域は、当該領域のx方向及びy方向の何れかのピクセル数が20ピクセル(約20μm)を超える場合、蛍光を発する複数の細胞からなるものであると判断される。
理解されるように、結合コンポーネント標識化工程後に、蛍光を発する1つ以上の細胞、又は蛍光を発する1つ以上の細胞群を特定する。従って、本開示のいくつかの実施形態によると、方法100は、細胞検出工程S103が完了すると、いったん中止してもよい。
任意の実施形態において、方法100は、クラスター特定工程S105をさらに含む。この段階は、iPS細胞形成の開始を特定することを目的としている。iPS細胞形成の開始において、再プログラム化している細胞は、多くの場合、互いに積み重なっている。従って、蛍光顕微鏡画像におけるクラスターの存在を探索することは、再プログラム化プロセスの開始を特定することに役立つ。これは、2つ以上の蛍光顕微鏡画像が順に処理される実施形態において、特に有用であり、これにより、本願の方法100は、iPS細胞形成が発生する時及び場所を自動的に特定するために使用され得る。
具体的には、クラスター特定工程S105は、階調度の標準偏差を決定するための工程と、曖昧領域検出工程とを含む。
最初に、局所領域における各ピクセルに関する曖昧さを定量的に評価するために、階調度の標準偏差を決定する。まず、画像の階調度M(x,y)を、式3によって計算する。
Figure 0006931870
ここで、
Figure 0006931870
及び
Figure 0006931870
であり、
Gx及びGyは、それぞれ、x方向及びy方向における画像階調度を示す。次に、各ピクセルの曖昧さ(滑らかさ)σ(x,y)は、式4に従った、局所領域における画像階調度の標準偏差として定義される。
Figure 0006931870
ここで、Nは、ピクセルの総数であり、μは、局所領域における平均ピクセル値である。例えば、いくつかの実施形態では、当該局所領域として、11×11ピクセル(約10μm×10μm)を選択した。
次に、曖昧領域検出工程において、再プログラム化された細胞クラスターを示している可能性がある曖昧な領域を、自動的に検出する。本開示では、曖昧な領域は、式5の基準を満たす領域Rとして定義される。
Figure 0006931870
ここで、Tは、閾値である。理解されるように、各曖昧な領域は、細胞クラスターを示す。
本開示のある実施形態によると、本願の方法は、Open Source Computer Vision (OpenCV) library Version 2.4.11を使用して開発されるコンピュータプロダクトとして、Intel(登録商標) Core i5及び4G RAMが搭載されたパーソナルコンピュータを用いて実施され得、0.1秒未満で1つの蛍光顕微鏡画像を処理する。
本願明細書に記載の対象は、プロセッサが読み取り可能な命令を保存した非一時的な有形のプロセッサ可読記憶媒体を用いて実施され得る。当該命令は、プログラムで制御可能なデバイスによって実行された場合、プログラムで制御可能なデバイスが本開示の実施形態に係る方法を実行するように制御する。本願明細書に記載の対象を実施するのに適した例示的なプロセッサ可読記憶媒体は、RAM、ROM、EPROM、EEPROM、フラッシュメモリ又は他の半導体メモリ技術、CD−ROM、DVD又は他の光学記憶装置、磁気カセット、磁気テープ,磁気ディスク記憶装置又は他の磁気記憶デバイス、及び、所望の情報を記憶するために使用され、且つプロセッサによってアクセスされ得る任意の他の媒体を含むが、これらに限定されない。さらに、本願明細書に記載の対象を実施するプロセッサ可読記憶媒体は、単一のデバイス、若しくはコンピューティングプラットホームに設置されてもよく、又は、複数のデバイス若しくは複数のコンピューティングプラットホームにわたって分散されてもよい。
本願明細書に記載された対象の別の態様では、再プログラム化を受けている細胞と再プログラム化された細胞とを、1つ以上の細胞の蛍光顕微鏡画像から特定するためのシステムが提供される。当該システムは、1つ以上の細胞の蛍光顕微鏡画像を取得するように構成された装置(以下では、蛍光画像キャプチャ装置)、及び制御ユニットを含む。当該蛍光画像キャプチャ装置は、例えば、適当な任意の蛍光顕微鏡である。当該制御ユニットは、蛍光画像キャプチャ装置と通信接続され、当該装置によってキャプチャされた蛍光顕微鏡画像を処理するように構成されている。特に、制御ユニットは、プロセッサと、複数の命令を保存するためのメモリとを含み、当該命令は、プロセッサによって実行された場合、プロセッサに本願の方法を行わせる。
当該蛍光画像キャプチャ装置と当該制御ユニットとの間の通信は、種々の技術を用いて実施されてもよい。例えば、当該システムは、ネットワーク(ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、インターネット、又はワイヤレスネットワークなど)を介した、蛍光画像キャプチャ装置と制御ユニットとの間の通信を可能にするネットワークインターフェースを含んでもよい。別の例では、当該システムは、種々のシステムコンポーネントを結合するシステムバスを有してもよく、当該システムバスは、蛍光画像キャプチャ装置を制御ユニットに結合するシステムバスを含む。さらなる別の実施形態では、当該システムは、蛍光顕微鏡画像を示すデータを出力する蛍光画像キャプチャ装置用出力デバイスと、これらのデータを制御ユニットに入力するための入力デバイスとを有してもよい。
下記の実施例は、本発明のある態様を説明し、当業者が本発明を実施するのを助けるために提供される。これらの実施例は、決して、いかなる方法によっても本発明の範囲を限定するとみなされるべきではない。さらなる詳細無しで、当業者は、本願明細書の記載に基づいて、その最も完全な程度まで本発明を利用し得ると確信される。
材料及び方法
(1)IPS細胞形成
胚線維芽細胞は、ドキシサイクリン誘導性Oct4、Sox2、Klf4及びc−Mycを宿すマウス系の13.5dpcの胚に由来する。10%ウシ胎児血清(FBS)を含有するダルベッコ改変イーグル培地(DMEM)の3cmシャーレ中で、1×10個の胚線維芽細胞を播種し、37℃で一晩、培養した。10%ES細胞用ウシ胎児血清(ES-certified FBS)、1%非必須アミノ酸、0.1%b−メルカプトエタノール、1000μg/mlのLIF、50μg/mlのアスコルビン酸、3μMのCHIR99021を含有するGMEMであるES培地で、培地を交換した。2μg/mlのドキシサイクリンを培地に添加し、導入遺伝子の発現を誘導した。ドキシサイクリンを添加した日を0日目とした。
(2)イメージング条件
この研究では、Leica Microsystem AF 6000LX (DFC360FX-442880310)を使用して、生きた細胞の経時的な画像を取得した。顕微鏡の設定を下記の表1に要約した。2つのチャンネル(チャンネル1及び2)で、顕微鏡画像を同時に取得した。経時的な蛍光顕微鏡画像を8時間おきに18日間撮った。
Figure 0006931870
図2Aは、144(12×12)の蛍光顕微鏡画像からなる大きい画像を示す。この画像は、培養するフィールドを明らかにしており、ハイライトの顕微鏡画像が、図2Bに、最大の解像度(1392×1020ピクセル)で示されている。各ピクセルの幅は、0.92μmである。図2Bでは、蛍光を発する細胞を有する領域を観察することができる。
実施例1
この実施例では、図2Bからの蛍光画像を、上述のように、画像処理工程S101及び細胞検出工程S103によって処理し、結果を、図3に示した。図3において、パネル(a)は、元の画像である。パネル(b)は、画像処理工程S101後の結果を示す。当該工程では、蛍光を発する孤立細胞が、アンシャープマスキングによりはっきりと強調されている。パネル(c)は、細胞検出工程S103後の結果を示す。当該工程では、ランダムな色を、検出された蛍光を発する細胞又は細胞群に割り当てる。また、パネル(d)は、明視野コントラスト技術によって得られた画像を示す。
図3のパネル(a)において、蛍光を発する細胞を手集計した結果、蛍光を発する細胞は338個であった。他方、本願の方法を用いると、図3のパネル(c)において、蛍光を発するiPS細胞は334個と計算される。つまり、本願の方法を用いることで、約98.5%の精度が達成された。
さらに、図3のパネル(c)と(d)とを比較することにより、本願の方法によって特定された蛍光を発する細胞(パネル(c)で着色されたコンポーネントとして示される)がパネル(d)に示された再プログラム化されたiPS細胞及び再プログラム化しているiPS細胞と一致していることがわかる。
実施例2
この実施例では、上述の画像処理工程S101、細胞検出工程S103及びクラスター特定工程S105によって、2つの連続的な蛍光画像を処理し、図4に結果を示した。図4において、パネル(a)及び(b)は、それぞれ、元の画像、及び対応する明視野コントラスト画像を示し、パネル(c)及び(d)は、パネル(a)の画像において工程S101から工程S103までを行ったあとの結果を示すが、パネル(c)及び(d)は、階調度の標準偏差が異なる。
図4のパネル(c)及び(d)に見られるように、iPS細胞の形成が起きている場所では、曖昧な(又は滑らかな)領域が見出される。この曖昧さ又は滑らかさは、再プログラム化プロセス中の、蛍光を発する細胞の積み重なりに起因する。この結果から、本願の方法によって、再プログラム化プロセスが発生する時及び場所を蛍光顕微鏡画像から自動的に特定できることが示される。
これらの再プログラム化された細胞クラスターは、細胞生物学者によって、その明視野コントラスト画像を用いるなどしてさらに確認され得る。
図4のパネル(c)及び(d)の結果から明らかなように、クラスター特定工程S105において階調度の標準偏差を調整することによって、異なる結果が得られてもよい。従って、種々のイメージング条件として階調度の標準偏差が種々のものを使用し得、細胞生物学者は、最適な条件を選択することができる。
上述の点で、本願の方法は、経時的蛍光顕微鏡画像を自動的に分析し、マウスのiPS細胞形成プロセスを特徴づけ、これにより、再プログラム化プロセスが発生している可能性がある時及び場所を特定する。この自動化された検出方法は、オンラインモニタリングとして使用され得る。
理解されるように、図2Aに提示された画像のサイズは、非常に大きく、この画像に対する手動によるオンライン検出は、不可能であると思われる。しかし、高度なイメージングデバイス(例えば、高倍率、高解像度、又は4D蛍光顕微鏡若しくはカメラ)と共に、本願の適切に自動化された検出方法を用いることにより、一旦、再プログラム化プロセスの開始が検出されると、画像キャプチャユニットは、再プログラム化が発生している位置に導かれ得る(例えば、当該位置に焦点を定め直す)。このように、その後の画像化範囲は、再プログラム化している細胞、及び/又は、再プログラム化された細胞がいる位置に限定され、これにより、再プログラム化している細胞、及び/又は、再プログラム化された細胞を特定するためのより効率的な方法を提供する。
また、本願の方法、有形のコンピュータ可読記憶媒体、コンピュータプロダクト、及び/又はシステムは、種々の試薬又は培養条件下におけるiPS形成及び増殖のメカニズムを分析及び理解するための定量分析に適用可能である。例えば、細胞検出工程S103からの結果を分析し、時間の経過と共に、蛍光を発する細胞の数とiPS形成領域とをカウントして、これらの、iPS形成についての時間、位置及び速度に対する関係も分析し得る。
さらに、本願の方法は、短い時間で、経時的蛍光顕微鏡画像の大きなセットを分析し得る。これにより、従来、細胞生物学者によって行われてきた単調な作業を軽減する。本願の方法は高い精度を示し、顕微鏡画像において、蛍光を発する細胞を検出し、位置を特定することに役立つ。さらに、クラスター特定工程S105は、再プログラム化プロセスが発生する時及び場所を特定することに役立つ。本願の方法を用いることにより、再プログラム化している細胞、及び再プログラム化された細胞をキャプチャすることができ、iPS形成プロセスの理解、及び、このプロセスと細胞環境との関係の理解を容易にすることができる。
(実施形態2)
この実施形態では、実施形態1のシステムの例示的な実施が記載されている。
図5は、第1の実施形態で説明した1つ以上の細胞の蛍光顕微鏡画像から再プログラム化している細胞及び再プログラム化された細胞を特定するためのシステムのブロック図を示す。
図5によると、システム1000は、プロセッサ1100、メモリ1200、画像キャプチャ装置1300、及び記憶媒体1400を備えている。図5に示されるように、プロセッサ1100、メモリ1200、画像キャプチャ装置1300、及び記憶媒体1400は、システムバスによって互いに相互接続されている。
画像キャプチャ装置1300は、第1の実施形態の蛍光画像キャプチャ装置に相当する。
図5によると、プロセッサ1100は、画像処理部101、細胞検出部103、及びクラスター特定部105を備えている。画像処理部101。画像処理部101は、第1の実施形態の工程S101を実行する。細胞検出部103は、第1の実施形態の工程S103を実行する。クラスター特定部105は、第1の実施形態の工程S105を実行する。
メモリ1200は、複数の命令を記憶し、当該命令は、プロセッサ1100によって実行された場合、第1の実施形態で説明した方法をプロセッサに実行させる。
記憶媒体1400は、第1の実施形態における有形のコンピュータ可読記憶媒体に相当する。
(実施形態3)
本開示の第3の態様は、ディープラーニングによるiPS検出のための方法及び装置を規定する。本実施形態3は、実施形態1及び2で既に説明した方法、システム及び装置、並びに、下記で説明する方法及び装置を含む。
本実施形態のディープラーニングによるiPS検出のための方法及び装置は、下記の6つのタイプのクラス(分類0〜5)を扱う。当該クラスは、細胞の分布、及び画像のテクスチャによって定義される(特に、分類3〜5)。
分類0:全く何も無し(細胞無し)
分類1:孤立細胞で周囲にゲル状物質を伴っている
分類2:増殖しているがクラスターを形成していない細胞
分類3:iPSクラスターの形成
分類4:別のタイプの細胞クラスター
分類5:別のタイプの細胞クラスター
図6は、上記の各分類に対する例示的な画像である。
図7は、本開示の第3の実施形態に係るiPS検出装置200のブロック図である。図7によると、iPS検出装置200は、クリップ部201、入力部202、CNN(畳み込みニューラルネットワーク(Convolutional Neural Network))部203、規格化部204、及び、確率マップ生成部を備えている。iPS検出装置200は、システム1000に(特に、プロセッサ1100に)実装されてもよい。
入力画像は、iPS検出装置200に供給される。クリップ部201は、入力画像をROI(関心領域(Region of Interest))としてクリップする。例えば、クリップ部201は、最終的なテスト画像であるIWP-2コロニー1以外の、コントロール(対照)、DMSO及びIWP-2の画像セットから、トレーニング画像をクリップする。
ここで留意すべきは、ROIのサイズは、本開示の技術を限定しないが、ROIの例示的なサイズは、256×256ピクセルであるということである。他のサイズ(32×32、64×64、128×128)と比較して、256×256ピクセルのサイズは、特に、臨界的特徴(critical feature)に関して有効である。
クリップ部201によってクリップされたROIは、入力部202に供給される。入力部は、ROIをCNN部203に入力する。CNN部203は、ROIにおいて、CNNディープラーニングのフレームワークに基づいた計算を実行する。CNN部203は、各分類の確率(0%〜100%)を出力する。規格化部204は、分類3(iPS)の確率を取得し、それをグレースケール(0〜255)に規格化する。確率マップ生成部205は、グレースケール値をその対応する(x, y)ピクセルに与えることにより、分類3の確率マップを生成する。
図8は、各分類のトレーニング画像の詳細な手順の例を示す。
図9は、画像においてiPSを検出するための方法を実行するための工程を説明するフローチャートである。
工程S201において、クリップ部201は、入力画像をROIとしてクリップする。工程S202において、入力部は、ROIをCNN部203に入力する。
工程S203において、CNN部203は、ROIにおいて、CNNディープラーニングのフレームワークに基づいた計算を実行する。CNN部203は、各分類の確率(0%〜100%)を出力する。
工程S204において、規格化部204は、分類3(iPS)の確率を取得し、それをグレースケール(0〜255)に規格化する。
工程S205において、確率マップ生成部は、グレースケール値をその対応する(x, y)ピクセルに与えることにより、分類3の確率マップを生成する。
図10は、画像からiPSを検出する詳細な手順の例を示す。
上記で説明したように、本実施形態の一態様は、iPS検出装置を規定する。iPS検出装置は、入力部、CNN部、及び確率マップ生成部を備え、入力部は、入力画像をCNN部に供給し、CNN部は、入力画像において、CNNディープラーニングのフレームワークに基づいた計算を実行し、次に、各分類の確率を出力し、また、確率マップ生成部は、CNN部によって供給された確率に基づいて、少なくとも1つの分類の確率マップを生成する。
実施例3
本実施形態に記載された構成に基づいて、トレーニング段階において、クリップ部201は、最終的なテスト画像であるIWP-2コロニー1以外の、コントロール、DMSO及びIWP-2の画像セットから、トレーニング画像をクリップした。ROIのサイズを、256×256ピクセルに固定した。他のサイズ(32×32、64×64、128×128)と比較して、256×256ピクセルのサイズは、特に、臨界的特徴(critical feature)に関して有効であった。
CNNフレームワークの例として、我々は、CNNプラットフォーム「Caffe」を使用した。
トレーニング画像及びテスト画像として、6つの分類のそれぞれについて、80枚のトレーニング画像及び20枚のテスト画像を用いた。より具体的には、入力部は、CNN部203におけるCNN分類器(CNN classifier)を訓練するために、換言すれば、CNN分類器におけるパラメータを計算するために、80枚のトレーニング画像をCNN部203に供給した。さらに、入力部202は、パラメータを改善し、CNN分類器においてベクトルを計算するために、20枚のテスト画像(256×256ピクセル)をCNN部203に供給した。さらに、入力部202は、CNN分類器においてパラメータ及びベクトルをさらに改善するために、80枚のトレーニング画像をCNN部203に供給した。
トレーニング画像が多くなるほど、精度はより高くなる。10000回の反復でテスト画像のトレーニングを行い、94%の精度を達成した。
図11〜22は、テスト画像及びトレーニング画像を示す。我々は、IWP-2コロニー1をテスト画像として用いた。我々は、7日目のDMSOコロニー3をトレーニング画像として用いた。
(実施形態4)
この実施形態は、ディープラーニングによるiPS検出のための方法及び装置の別の例を提供する。本実施形態の一態様は、第3の実施形態の変形を含む。本実施形態の別の態様は、第3の実施形態の補足を含む。
本実施形態のディープラーニングによるiPS検出のための方法及び装置は、下記の6タイプのクラス(クラス0から5)を扱う。
クラス0:全く何も無し
クラス1:周囲にゲル状の物体を伴った細胞
クラス2:群がらないいくつかの細胞
クラス3:粗いパターンで群がるいくつかの細胞
クラス4:精細なパターンで群がるいくつかの細胞
クラス5:iPS
図23は、上記の分類基準(クラス0から5)に従った例示的な分類領域を示す。
図24は、クラス5(iPS)の例示的なテンプレートを示す。
本発明のiPS検出装置は、基本的に、第3の実施形態のiPS検出装置と同一である。
図25は、CNN部203のトレーニング工程及びテスト工程を実行するための工程を説明するフローチャートである。図25に示されるように、全プロセスは、トレーニング工程及びテスト工程を含む。当該トレーニング工程は、工程S301〜S303を含み、当該テスト工程は、工程S311〜S313を含む。
工程S301において、入力部202は、複数のトレーニング画像(テンプレート画像ともいう)を、CNN部203に供給する。
工程S302において、CNN部203は、複数のテンプレート画像を反復することにより、CNN分類器を最適化し、ディープラーニングモデルの全体のエラーを最小限にする。テンプレート画像の数が本実施形態を限定することはないが、テンプレート画像の例示的な数は、100(テンプレート)×6(クラス)=600である。
工程S302で導かれた、最適化された係数は、工程S303において、メモリに記憶される。
本実施形態の一態様によると、特徴を得るために、iPSクラスのテンプレートが使用される(次に係数最適化のために使用される)。
図26は、本実施形態のトレーニング方法で実行される詳細な手順の例を示す。注目すべきは、図26が図8の一部に対応してもよいということである。
トレーニング工程後に、入力部202は、工程S311において、CNN部203に複数のテスト画像を供給し、CNN部203は、工程S312において、各分類の確率(0%〜100%)を出力する。例えば、iPS検出装置200は、テスト画像における全てのピクセルを、6つのクラスの6つの確率に分類する。工程S313において、確率マップ生成部205は、CNN部203で導出された確率に基づいて、確率マップを生成する。
注目すべきは、規格化部204が、クラス5(iPS)の確率を取得し、それをグレースケール(0〜255)に規格化してもよいということである。次に、確率マップ生成部205は、グレースケール値をその対応する(x, y)ピクセルに与えることによって、クラス5の確率マップを生成してもよい。
図27は、本実施形態のテスト段階において、本発明のiPS検出装置200によって実行される詳細な手順の例を示す。
注目すべきは、トレーニング工程及びテスト工程は、繰り返し実行されてもよいということである。当該反復では、テスト工程において一度使用されたテスト画像は、トレーニング工程において、入力画像として再度使用されてもよい。また、当該テストの結果は、トレーニング工程にフィードバックされ、CNN分類器において、パラメータ及びベクトルを改善してもよい。これらの手順を反復することにより、CNN分類器のさらなる最適化が達成される。
実施例4
本実施形態に記載された構成に基づいた例示的な結果は、図28及び29に示される。この実施例では、我々は下記のiPSデータ及び構成も使用した。
8つの対照用コロニー、8つのDMSOコロニー、及び8つのIWP-2コロニー
1枚の画像(2560×1920ピクセル)は、たった1つのコロニーを含む。4日目、7日目、8日目、9日目、10日目及び11日目に撮影された同一のコロニーの6つの画像は、1セットの、時系列に沿った画像を構成する。
全体として、24個のコロニーに関する24個のセットの3×8×6枚の(144枚の)画像を用意した。
138枚のトレーニング画像から、我々は、テンプレート(256×256ピクセル)のクラス(当該クラスは、第4の実施形態で説明されている)を手動で特定する。複数のテンプレート、又はテンプレートが無いことを、画像において特定してもよく、各クラスに関する100個のテンプレートを特定する。
トレーニング画像からの、6つのクラスのそれぞれについての上記100個のテンプレートを用いることで、CNN部203において、CNN(Caffe)分類器が得られる。より詳細には、実施例3のように、入力部は、CNN部203におけるCNN分類器を訓練するために、換言すれば、CNN分類器におけるパラメータを計算するために、CNN部203に80枚のトレーニング画像を供給した。さらに、入力部202は、パラメータを改善するために、また、CNN分類器におけるベクトルを計算するために、CNN部203に20枚のテスト画像(256×256ピクセル)を供給した。さらに、入力部202は、CNN分類器におけるパラメータ及びベクトルをさらに改善するために、CNN部203に80枚のトレーニング画像を供給した。
次に、CNN部203は、テスト画像を6つのクラスの領域に分類する。1セットの、時系列(6つ)に沿った画像間における、6つのクラスの領域変化は、iPS細胞と他のタイプの細胞との間の、増殖の関係を示す。
我々は、トレーニングデータとして、22セット(132枚(3×8×6−12))の画像を使用した。時系列に沿った画像の残りの2セット(12枚)は、テストセットとして使用される。
結果は、4つのコロニー:iPS細胞を含むコントロールコロニー1、DMSOコロニー3、IWP-2コロニー1及びIWP-2コロニーが存在することを示す。
図28において、IWP-2コロニー1に関する、時系列に沿った画像のテストセットの結果が示されている。図29において、コントロール2に関する、時系列に沿った画像のテストセットの結果が示されている。トレーニング精度は、我々がiPS細胞を含む画像をさらに有している場合に改善され得る。
(実施形態5)
この実施形態は、トレーニング画像及びテスト画像についてのより詳細な説明を提供する。本実施形態の一態様は、第3の実施形態の変形と、第4の実施形態の変形とを含む。本実施形態の別の態様は、第3の実施形態の補足と、第4の実施形態の補足とを含む。
本実施形態によれば、トレーニング画像及びテスト画像として、下記のようなものを用いてもよい。
(ケース1)トレーニング画像は、蛍光画像であり、テスト画像は、非蛍光画像である。
(ケース2)トレーニング画像は、非蛍光画像であり、テスト画像は、非蛍光画像である。
(ケース3)トレーニング画像は、蛍光画像であり、テスト画像は、蛍光画像である。
(ケース4)トレーニング画像は、非蛍光画像であり、テスト画像は、蛍光画像である。
本実施形態によれば、上記の何れのケースにおいても、テスト結果をトレーニング工程にフィードバックしてもよい。
例えば、上記のケース1及びケース2において、蛍光画像又は非蛍光画像に基づいて、トレーニング工程を実行してもよい。次に、非蛍光テスト画像に基づいて、テスト工程を実行してもよい。ここで、非蛍光テスト画像に基づいたテスト結果を、非蛍光トレーニング画像を扱うトレーニング工程にフィードバックしてもよい。この手順は、我々が第2のトレーニング工程において標的の細胞に蛍光物質を与える必要がないという意味において、好適であり得る。また、この手順は、非蛍光トレーニング画像を用いたトレーニング工程は費用効率がよいため、好適であり得る。また、この手順は、当該検出が非蛍光画像に基づいて実行される場合に、より高い処理能力を得られるという意味において、好適であり得る。
上記のケース1及びケース2における別の例として、トレーニング工程を、蛍光画像又は非蛍光画像に基づいて実行してもよい。次に、テスト工程を、非蛍光テスト画像に基づいて実行する。ここで、非蛍光テスト画像に基づいたテスト結果を、蛍光トレーニング画像を扱うトレーニング工程にフィードバックしてもよい。この手順は、当該検出が非蛍光画像に基づいて実行される場合に、より高い処理能力を得られるという意味において、好適であり得る。従って、トレーニング工程を、非蛍光画像に基づいて実行し、テスト工程において、蛍光画像をテスト画像として使用することが好ましい。
上記のケース3及びケース4に関して、例えば、トレーニング工程を、蛍光画像又は非蛍光画像に基づいて実行してもよい。次に、テスト工程を、蛍光テスト画像に基づいて実行する。ここで、蛍光テスト画像に基づいたテスト結果を、非蛍光トレーニング画像を扱うトレーニング工程にフィードバックしてもよい。この手順は、我々が第2のトレーニング工程において標的の細胞に蛍光物質を与える必要がないという意味において、好適であり得る。また、この手順は、非蛍光トレーニング画像を用いたトレーニング工程は費用効率がよいため、好適であり得る。
上記のケース3及びケース4における別の例として、トレーニング工程を、蛍光画像又は非蛍光画像に基づいて実行してもよい。次に、テスト工程を、蛍光テスト画像に基づいて実行する。ここで、蛍光テスト画像に基づいたテスト結果は、蛍光トレーニング画像を扱うトレーニング工程にフィードバックしてもよい。この手順は、蛍光画像を用いたトレーニング工程及びテスト工程が検出精度を向上させるため、好適であり得る。
上記のケース1からケース4までに示されるように、蛍光画像又は非蛍光画像を用いて、トレーニング工程を実行してもよい。この態様は、それがトレーニング工程を実行する方法の自由度を高めるため、好適であり得る。また、上記のケース1からケース4までに示されるように、蛍光画像又は非蛍光画像を用いて、テスト工程も実行してもよい。この態様は、それがテスト工程を実行する方法の自由度を高めるため、好適であり得る。
また、注目すべきは、トレーニング画像及びテスト画像が同一の種類のトレーニング画像及びテスト画像である場合(例えば、上記のケース2及びケース3において)、すなわち、トレーニング画像及びテスト画像の両方が非蛍光のものである場合、又は、トレーニング画像及びテスト画像の両方が蛍光のものである場合、トレーニングの精度と検出の精度とが上昇し得ることである。
上記の実施形態の説明は、例として与えられ、種々の変形及び組合せが当業者によって行われ得ることが理解される。上記の明細書、実施例及びデータは、本発明の例示的な実施形態の構造及び使用の完全な説明を提供する。本発明の種々の実施形態が、ある程度、詳細に記載されているか、又は、1つ以上の個々の実施形態を参照して記載されているが、当業者は、この発明の精神又は範囲から離れることなく、開示された実施形態に対して多くの変更を行うことができる。

Claims (16)

  1. 1つ以上の細胞の蛍光顕微鏡画像から、再プログラム化を受けている細胞、及び再プログラム化された細胞を特定するための方法であって、
    (a)グレースケール変換、及びアンシャープマスキングを、上記蛍光顕微鏡画像に適用し、強調画像を取得する工程と、
    (b)上記強調画像を2値画像に変換する工程と、
    (c)上記2値画像において、細胞に対して細胞様楕円境界を特定する工程であって、各細胞様楕円境界が、孤立細胞、又は細胞群を示す工程と、
    (d)各孤立細胞又は各細胞群をランダムな色で標識化し、着色された複数のコンポーネントを取得する工程であって、各着色コンポーネントが、再プログラム化を受けている1つ以上の細胞、又は再プログラム化された1つ以上の細胞を示す、工程と、を含む、方法。
  2. 上記アンシャープマスキングは、式1に従ったアンシャープマスキングを適用することによって実行され、
    Figure 0006931870
    上記fs(x,y)は、上記強調画像であり、x及びyは、上記画像の座標であり、*は、上記画像のコンボリューションを示し、Gσは、標準偏差σ、及びフィルタサイズ2σ+1のガウジアンフィルタである、請求項1に記載の方法。
  3. 上記ガウジアンフィルタのフィルタサイズは、上記細胞の直径である、請求項に記載の方法。
  4. 上記(b)の工程は、式2に従って実行され、
    Figure 0006931870
    Tは、上記蛍光顕微鏡画像のための閾値である、請求項1に記載の方法。
  5. (e)上記着色コンポーネントの各ピクセルの滑らかさを、ピクセルの局所領域と比較し、下記(e−1)及び(e−2):
    (e−1)式3に従って、各ピクセルの画像階調度M(x,y)を決定する工程であって、
    Figure 0006931870
    Figure 0006931870
    及び
    Figure 0006931870
    であり、
    Gx及びGyは、それぞれ、x方向及びy方向における上記画像階調を示している工程、及び、
    (e−2)式4に従って、各ピクセルの上記滑らかさσ(x,y)を決定する工程であって、
    Figure 0006931870
    Nは、ピクセルの総数であり、μは、上記局所領域における平均ピクセル値である工程、
    によって評価する工程、並びに、
    (f)式5の基準を満たす曖昧な領域Rの存在を決定する工程、
    Figure 0006931870
    をさらに含み、
    上記曖昧な領域は、細胞クラスターを示している、請求項1に記載の方法。
  6. (e)上記着色コンポーネントの各ピクセルの滑らかさを、ピクセルの局所領域と比較し、下記(e−1)及び(e−2):
    (e−1)式3に従って、各ピクセルの画像階調度M(x,y)を決定する工程であって、
    Figure 0006931870
    Figure 0006931870
    及び
    Figure 0006931870
    であり、
    Gx及びGyは、それぞれ、x方向及びy方向における上記画像階調を示している工程、及び、
    (e−2)式4に従って、各ピクセルの上記滑らかさσ(x,y)を決定する工程であって、
    Figure 0006931870
    Nは、ピクセルの総数であり、μは、上記局所領域における平均ピクセル値である工程、
    によって評価する工程、並びに、
    (f)式5の基準を満たす曖昧な領域Rの存在を決定する工程、
    Figure 0006931870
    をさらに含み、
    上記方法は、上記1つ以上の細胞の一連の蛍光顕微鏡画像に対して、工程(a)から工程(f)を実行し、上記細胞の再プログラム化の開始を特定することを含む、請求項に記載の方法。
  7. 1つ以上の細胞の蛍光顕微鏡画像から、再プログラム化を受けている細胞、及び再プログラム化された細胞を特定するための方法を実行するための、コンピュータが読み取り可能な命令が符号化された、有形のコンピュータ可読記憶媒体であって、
    上記方法は、
    (a)グレースケール変換、及びアンシャープマスキングを、上記蛍光顕微鏡画像に適用し、強調画像を取得する工程と、
    (b)上記強調画像を2値画像に変換する工程と、
    (c)上記2値画像において、細胞に対して細胞様楕円境界を特定する工程であって、各細胞様楕円境界が、孤立細胞、又は細胞群を示す、工程と、
    (d)各孤立細胞又は各細胞群をランダムな色で標識化し、着色された複数のコンポーネントを取得する工程であって、各着色コンポーネントが、再プログラム化を受けている1つ以上の細胞、又は再プログラム化された1つ以上の細胞を示す、工程と、を含む、有形のコンピュータ可読記憶媒体。
  8. 上記アンシャープマスキングは、式1に従ったアンシャープマスキングを適用することによって実行され、
    Figure 0006931870
    上記fs(x,y)は、上記強調画像であり、x及びyは、上記画像の座標であり、*は、上記画像のコンボリューションを示し、Gσは、標準偏差σ、及びフィルタサイズ2σ+1のガウジアンフィルタである、請求項に記載の有形のコンピュータ可読記憶媒体。
  9. 上記ガウジアンフィルタのフィルタサイズは、上記細胞の直径である、請求項に記載の有形のコンピュータ可読記憶媒体。
  10. 上記(b)の工程は、式2に従って実行され、
    Figure 0006931870
    Tは、上記蛍光顕微鏡画像のための閾値である、請求項に記載の有形のコンピュータ可読記憶媒体。
  11. 上記方法は、
    (e)上記着色コンポーネントの各ピクセルの滑らかさを、ピクセルの局所領域と比較し、下記(e−1)及び(e−2):
    (e−1)式3に従って、各ピクセルの画像階調度M(x,y)を決定する工程であって、
    Figure 0006931870
    Figure 0006931870
    及び
    Figure 0006931870
    であり、
    Gx及びGyは、それぞれ、x方向及びy方向における上記画像階調を示している工程、及び、
    (e−2)式4に従って、各ピクセルの上記滑らかさσ(x,y)を決定する工程であって、
    Figure 0006931870
    Nは、ピクセルの総数であり、μは、上記局所領域における平均ピクセル値である工程、
    によって評価する工程、並びに、
    (f)式5の基準を満たす曖昧な領域Rの存在を決定する工程、
    Figure 0006931870
    をさらに含み、
    上記曖昧な領域は、細胞クラスターを示している、請求項に記載の有形のコンピュータ可読記憶媒体。
  12. 1つ以上の細胞の蛍光顕微鏡画像から、再プログラム化を受けている細胞、及び再プログラム化された細胞を特定するためのシステムであって、
    1つ以上の細胞の蛍光顕微鏡画像を取得するように構成された装置と、
    制御ユニットであって、プロセッサ、及び複数の命令を保存するためのメモリを備え、上記複数の命令は、上記プロセッサによって実行された場合、
    (a)グレースケール変換、及びアンシャープマスキングを、上記蛍光顕微鏡画像に適用し、強調画像を取得する工程と、
    (b)上記強調画像を2値画像に変換する工程と、
    (c)上記2値画像において、細胞に対して細胞様楕円境界を特定する工程であって、各細胞様楕円境界が、孤立細胞、又は細胞群を示す、工程と、
    (d)各孤立細胞又は各細胞群をランダムな色で標識化し、着色された複数のコンポーネントを取得する工程であって、各着色コンポーネントが、再プログラム化を受けている1つ以上の細胞、又は再プログラム化された1つ以上の細胞を示す、工程と、を含む方法を上記プロセッサに実行させる、制御ユニットと、を備えている、システム。
  13. 上記アンシャープマスキングは、式1に従ったアンシャープマスキングを適用することによって実行され、
    Figure 0006931870
    上記fs(x,y)は、上記強調画像であり、x及びyは、上記画像の座標であり、*は、上記画像のコンボリューションを示し、Gσは、標準偏差σ、及びフィルタサイズ2σ+1のガウジアンフィルタである、請求項12に記載のシステム。
  14. 上記ガウジアンフィルタのフィルタサイズは、上記細胞の直径である、請求項13に記載のシステム。
  15. 上記(b)の工程は、式2に従って実行され、
    Figure 0006931870
    Tは、上記蛍光顕微鏡画像のための閾値である、請求項12に記載のシステム。
  16. 上記方法は、
    (e)上記着色コンポーネントの各ピクセルの滑らかさを、ピクセルの局所領域と比較し、下記(e−1)及び(e−2):
    (e−1)式3に従って、各ピクセルの画像階調度M(x,y)を決定する工程であって、
    Figure 0006931870
    Figure 0006931870
    Figure 0006931870
    であり、
    Gx及びGyは、それぞれ、x方向及びy方向における上記画像階調を示している工程、及び、
    (e−2)式4に従って、各ピクセルの上記滑らかさσ(x,y)を決定する工程であって、
    Figure 0006931870
    Nは、ピクセルの総数であり、μは、上記局所領域における平均ピクセル値である工程、によって評価する工程、並びに、
    (f)式5の基準を満たす曖昧な領域Rの存在を決定する工程、
    Figure 0006931870
    をさらに含み、
    上記曖昧な領域は、細胞クラスターを示している、請求項12に記載のシステム。
JP2017026477A 2017-02-15 2017-02-15 細胞の再プログラム化を検出するための方法及び装置 Active JP6931870B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017026477A JP6931870B2 (ja) 2017-02-15 2017-02-15 細胞の再プログラム化を検出するための方法及び装置
US15/894,945 US10586327B2 (en) 2017-02-15 2018-02-13 Method and apparatus for detecting cell reprogramming

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017026477A JP6931870B2 (ja) 2017-02-15 2017-02-15 細胞の再プログラム化を検出するための方法及び装置

Publications (2)

Publication Number Publication Date
JP2018173273A JP2018173273A (ja) 2018-11-08
JP6931870B2 true JP6931870B2 (ja) 2021-09-08

Family

ID=63104749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017026477A Active JP6931870B2 (ja) 2017-02-15 2017-02-15 細胞の再プログラム化を検出するための方法及び装置

Country Status (2)

Country Link
US (1) US10586327B2 (ja)
JP (1) JP6931870B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3676750B1 (en) * 2017-09-01 2024-06-05 PHIO scientific GmbH Detection of biological cells and tracing of cell lineage
US10423819B2 (en) * 2017-10-31 2019-09-24 Chung Yuan Christian University Method and apparatus for image processing and visualization for analyzing cell kinematics in cell culture
CN109446951B (zh) * 2018-10-16 2019-12-10 腾讯科技(深圳)有限公司 三维图像的语义分割方法、装置、设备及存储介质
DE102018133188A1 (de) * 2018-12-20 2020-06-25 Carl Zeiss Microscopy Gmbh Abstandbestimmung einer probenebene in einem mikroskopsystem
JP2021064115A (ja) * 2019-10-11 2021-04-22 株式会社島津製作所 細胞画像解析方法及び細胞解析装置
CN111126173B (zh) * 2019-12-04 2023-05-26 玉林师范学院 一种高精度人脸检测方法
CN111046550B (zh) * 2019-12-10 2022-07-29 电子科技大学 一种基于时空特征的燃料电池电压预测系统
US20230230229A1 (en) * 2021-02-23 2023-07-20 Boe Technology Group Co., Ltd. Method and apparatus for analyzing biochip image, computer device, and storage medium
CN113344958B (zh) * 2021-08-02 2021-10-29 长沙蓝芯智能科技有限责任公司 一种显微成像扫描方法及扫描系统
WO2023019555A1 (zh) * 2021-08-20 2023-02-23 深圳先进技术研究院 细胞荧光图像阈值化方法、系统、终端及存储介质
CN113886917B (zh) * 2021-09-30 2022-05-03 电子科技大学 基于cnn-lstm模型的铁路沿线区域地面沉降预测预警方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
JP2008545959A (ja) * 2005-05-25 2008-12-18 スティフテルセン ウニヴェルジテーツフォルスクニング ベルゲン 顕微鏡装置および薬品、物理療法と生物学的危険物質のためのふるい分け(screening)方法
US8199999B2 (en) * 2008-06-17 2012-06-12 Cambridge Research & Instrumentation, Inc. Image classifier training
EP2488992B1 (en) * 2009-10-13 2024-05-29 The Charles Stark Draper Laboratory, Inc. Mathematical image analysis based cell reprogramming with applications for epigenetic and non-epigenetic base induced pluripotent stem cell derivation
WO2015093518A1 (ja) * 2013-12-18 2015-06-25 コニカミノルタ株式会社 画像処理装置、病理診断支援システム、画像処理プログラム及び画像処理方法
CN107111874B (zh) * 2014-12-30 2022-04-08 文塔纳医疗系统公司 用于共表达分析的系统和方法
US20170109563A1 (en) * 2015-10-14 2017-04-20 Wayne State University Palm vein-based low-cost mobile identification system for a wide age range
US10607343B2 (en) * 2016-10-21 2020-03-31 Nantomics, Llc Digital histopathology and microdissection

Also Published As

Publication number Publication date
US10586327B2 (en) 2020-03-10
JP2018173273A (ja) 2018-11-08
US20180232879A1 (en) 2018-08-16

Similar Documents

Publication Publication Date Title
JP6931870B2 (ja) 細胞の再プログラム化を検出するための方法及び装置
US20230127698A1 (en) Automated stereology for determining tissue characteristics
US11138737B2 (en) Method and apparatus for predicting cell reprogramming
US20100135566A1 (en) Analysis and classification, in particular of biological or biochemical objects, on the basis of time-lapse images, applicable in cytometric time-lapse cell analysis in image-based cytometry
Chang et al. Human induced pluripotent stem cell region recognition in microscopy images using convolutional neural networks
Matsuoka et al. Characterization of time‐course morphological features for efficient prediction of osteogenic potential in human mesenchymal stem cells
Patino et al. Deep learning and computer vision strategies for automated gene editing with a single-cell electroporation platform
CN106874712A (zh) 一种基于池化时间序列特征表示的细胞分裂事件识别方法
US9123120B2 (en) Progressive decision for cellular process selection
Dursun et al. Recognition of tenogenic differentiation using convolutional neural network
Erdmann et al. Systematic approaches to dissect biological processes in stem cells by image‐based screening
JP2022551117A (ja) 撮像システムおよびその使用方法
Chu et al. High resolution U-Net for quantitatively analyzing early spatial patterning of human induced pluripotent stem cells on micropatterns
Imashiro et al. Direct cell counting using macro-scale smartphone images of cell aggregates
EP3851516A1 (de) Verfahren und vorrichtung zur kultivierung und untersuchung von neuronen
Pijuan et al. Live Cell Adhesion, Migration, and Invasion Assays
Liu et al. 3D Rotation-Invariant description from tensor operation on spherical HOG field
Hillemanns et al. AMES: automated evaluation of sarcomere structures in cardiomyocytes
Kanie et al. Quantitative analysis of operators’ flow line in the cell culture for controlled manual operation
US20230326221A1 (en) Systems for identifying cells and uses thereof
Chu et al. Quantitative Analyses for Early Tempo-spatial Patterning of Differentiated Human Induced Pluripotent Stem Cells on Micropatterns using Time-lapse Bright-field Microscopy Images
Mukhopadhyay et al. Machine learning aided single cell image analysis improves understanding of morphometric heterogeneity of human mesenchymal stem cells
Ragunton et al. AN ARTIFICIAL INTELLIGENCE FOR RAPID IN-LINE LABEL-FREE HUMAN PLURIPOTENT STEM CELL COUNTING AND QUALITY ASSESSMENT
Angulo et al. Morphological-based adaptive segmentation and quantification of cell assays in high content screening
Yi et al. Morphological feature recognition of different differentiation stages of induced ADSCs based on deep learning

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20170314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210803

R150 Certificate of patent or registration of utility model

Ref document number: 6931870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250