JP2019195304A - 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 - Google Patents

画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 Download PDF

Info

Publication number
JP2019195304A
JP2019195304A JP2018091776A JP2018091776A JP2019195304A JP 2019195304 A JP2019195304 A JP 2019195304A JP 2018091776 A JP2018091776 A JP 2018091776A JP 2018091776 A JP2018091776 A JP 2018091776A JP 2019195304 A JP2019195304 A JP 2019195304A
Authority
JP
Japan
Prior art keywords
cell
deep learning
image analysis
image
learning algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018091776A
Other languages
English (en)
Inventor
顯通 大坂
Akimichi Osaka
顯通 大坂
陽子 田部
Yoko Tabe
陽子 田部
考伸 木村
Takanobu Kimura
考伸 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sysmex Corp
Juntendo University
Original Assignee
Sysmex Corp
Juntendo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sysmex Corp, Juntendo University filed Critical Sysmex Corp
Priority to JP2018091776A priority Critical patent/JP2019195304A/ja
Priority to EP19172959.9A priority patent/EP3588368A3/en
Priority to US16/406,523 priority patent/US11093729B2/en
Priority to CN201910387008.0A priority patent/CN110472471A/zh
Publication of JP2019195304A publication Critical patent/JP2019195304A/ja
Priority to US17/398,850 priority patent/US11830188B2/en
Priority to JP2023008570A priority patent/JP2023061956A/ja
Priority to US18/489,475 priority patent/US20240062377A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Abstract

【課題】より高精度に、解析用画像に含まれる複数の細胞について各々の形態を識別するための画像解析方法を提供することを一課題とする。【解決手段】ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞の形態を解析する画像解析方法であって、解析対象の細胞に関する情報を含む解析データを、前記深層学習アルゴリズム(60,61)に入力し、前記深層学習アルゴリズム(60,61)によって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出する方法により、画像を解析する。【選択図】図1

Description

本開示は、細胞形態を解析する画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法に関する。
特許文献1には、顕微鏡画像を処理するための細胞識別システムが開示されている。前記細胞識別システムにおいては、機械訓練技法を用いて訓練されたモデルが、取得された画像内の画素を、細胞、細胞エッジ、背景、及び同等物のうちの1つ又はそれを上回るものと関連付ける。機械訓練技法は、ランダムフォレスト決定木技法を使用している。
特表2016-534709号
細胞検査では、通常検査者が顕微鏡観察により細胞を観察し、細胞の種類や特徴を形態学的に同定する。しかし、同じ系統の細胞は似た形態を有するため、形態学的に細胞を識別できるようになるためには、多くの細胞標本を観察し、識別スキルを向上させることが必要となる。特に疾患に罹患した際に出現する異常細胞の識別には熟練を要する。例えば、初期の骨髄異型性症候群のように異常細胞の出現頻度が少ない場合、スキルが十分でない検査者が異常細胞に気づかない等のリスクもある。
また、検査者が1日に観察できる標本枚数には限界があり、1日に100枚を超える観察は、検査者にも負担となる。
細胞検査の処理件数を増やすことは、フロー方式を採用した自動血球分類装置等でも可能である。しかし、フロー方式の自動血球分類装置からは得られる情報が限られており、芽球、前骨髄球、巨大血小板といった出現頻度の低い血球については識別が困難であった。
特許文献1に記載の方法のように、機械訓練技法(機械学習ともいう)を使用して、細胞を識別する方法も知られている。しかしながら、機械学習モデルを訓練するための訓練データをユーザが作成する必要があり、モデルの生成に膨大な労力が必要となる。また、ユーザが訓練データを作成するため、作成可能な訓練データの数が限られ、機械学習モデルによる解析の精度、汎化性能に課題があるというのが現状である。
また、特許文献1に記載の方法は、顕微鏡画像において、細胞の部分と非細胞の部分とを識別するための方法である。したがって、各々の細胞がどのような種類であるか、またどのような異常所見を含んでいるか等は識別することはできない。
本開示は、より高精度に解析用画像に含まれる複数の細胞について各々の形態を識別するための画像解析方法を提供することを一課題とする。
本開示におけるある実施形態は、ニューラルネットワーク構造を有する深層学習アルゴリズム(50,51)を用いて、細胞の形態を解析する画像解析方法に関する。前記画像解析方法では、解析対象の細胞に関する情報を含む解析データ(80)を、ニューラルネットワーク構造を有する深層学習アルゴリズム(60,61)に入力し、前記深層学習アルゴリズムによって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出して画像を解析する。本実施形態により、検査者が顕微鏡観察を行わなくても、所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を求め画像を解析することができる。
好ましくは、前記画像解析方法は、算出した前記確率に基づいて、前記解析対象の細胞が、所定の細胞群に属する複数の細胞の形態分類のいずれかを識別する。本実施形態により、検査者が顕微鏡観察を行わなくても、解析対象の細胞が形態分類のいずれに該当するかを識別することができる。
好ましくは、前記所定の細胞群は、血中細胞の群である。本実施形態により、検査者が顕微鏡観察を行わなくても、血球の形態分類を行うことができる。
前記所定の細胞群は、好ましくは、所定の細胞系統に属する細胞の群である。より好ましくは、前記所定の細胞系統は、造血系である。本実施形態により、検査者が顕微鏡観察を行わなくても、同じ細胞系統に属する細胞の形態分類を行うことができる。
好ましくは、前記形態分類が、前記解析対象の細胞の種類の識別である。より好ましくは、形態学分類が、分葉核好中球及び桿状核好中球を含む好中球、後骨髄球、骨髄球、前骨髄球、芽球、リンパ球、形質細胞、異型リンパ球、単球、好酸球、好塩基球、赤芽球、巨大血小板、血小板凝集塊、及び巨核球を含む。本実施形態によれば、似たような形態を有する同系列の細胞であっても識別することができる。
好ましくは、前記形態分類が、前記解析対象の細胞の異常所見の識別である、前記形態学的分類は、より好ましくは、形態核異常、空胞の存在、顆粒形態異常、顆粒分布異常、異常顆粒の存在、細胞の大きさ異常、封入体の存在及び裸核よりなる群から選択される少なくとも一つの細胞を含む。本実施形態によれば異常所見を呈する細胞であっても識別することができる。
前記実施形態において、前記細胞の形態に関するデータが、形態学的な分類における細胞の種類に関するデータ及び形態学的な分類における細胞の特徴に関するデータである。この実施形態により、形態学的な細胞の種類と、細胞の特徴とを出力することができる。
前記実施形態は、好ましくは、前記深層学習アルゴリズムが、所定の細胞群に属する複数の細胞の第1の形態分類の各々について、前記解析対象の細胞が属する確率を算出する第1のアルゴリズムと、所定の細胞群に属する複数の細胞の第2の形態分類の各々について、前記解析対象の細胞が属する確率とを算出を算出する第1のアルゴリズムとを含む。例えば、前記第1の形態分類は、前記解析対象の細胞の種類であり、前記第2の形態分類は、前記解析対象の細胞の異常所見である。このようにすることにより、似た形態を有する細胞の識別精度をより向上することができる。
前記実施形態では、前記解析データ(80)が、染色された血中細胞を撮像した画像のデータである。より好ましくは、前記染色が、ライト染色、ギムザ染色、ライトギムザ染色及びメイギムザ染色から選択される。このようにすることで、従来行われている顕微鏡下の観察と同様の識別を行うことができる。
前記解析データ(80)及び訓練データ(75)が、解析対象画像及び訓練用画像の輝度に関する情報と、少なくとも2種の色相に関する情報を含む。このようにすることで、識別精度を向上させることができる。
本開示における別の実施形態は、ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞の形態を解析する画像解析装置(200)に関する。前記画像解析装置(200)は、解析対象の細胞に関する情報を含む解析データ(80)を、前記深層学習アルゴリズム(60,61)を含む識別器に入力し、前記深層学習アルゴリズム(60,61)によって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出して画像を解析する処理部(10)を備える。好ましくは、前記形態分類は、前記解析対象の細胞の種類の識別である。また、好ましくは、前記形態分類は、前記解析対象の細胞の異常所見の識別である。
本開示における、別の実施形態は、ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて(60,61)、細胞の形態を解析する画像解析するためのコンピュータプログラムに関する。前記コンピュータプログラムは、解析対象の細胞に関する情報を含む解析データ(83)を、前記深層学習アルゴリズム(60,61)によって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出して画像を解析する処理をコンピュータ(200)に実行させる。好ましくは、前記形態分類は、前記解析対象の細胞の種類の識別である。また、好ましくは、前記形態分類は、前記解析対象の細胞の異常所見の識別である。
本開示の別の実施形態は、訓練済みの深層学習アルゴリズム(60,61)の生成方法に関する。本実施形態は、細胞に関する情報を含む訓練データをニューラルネットワーク(50,51)の入力層(50a,50b)に入力し、所定の細胞群に属する複数の細胞の形態分類に紐付けられたラベル値を出力層(51a,51b)として入力する。好ましくは、前記形態分類は、前記解析対象の細胞の種類の識別である。また、好ましくは、前記形態分類は、前記解析対象の細胞の異常所見の識別である。
画像解析装置(200)、訓練済みの深層学習アルゴリズム(60,61)を使用することにより、検査者のスキルに影響されずに、形態学的な細胞の種類及び細胞の特徴を識別することができる。
解析用画像に含まれる複数の細胞について各々の形態を識別することができる。結果として、検査者のスキルに影響されない細胞検査を行うことができる。
本開示の概要を示す図である。 訓練データの生成手順と、第1の深層学習アルゴリズムと第2の深層学習アルゴリズムの訓練手順の例を示す模式図である。 ラベル値の例を示す。 解析データの生成手順と、深層学習アルゴリズムを用いた細胞の識別の手順の例を示す模式図である。 画像解析システム1の構成例の概略を示す図である。 ベンダ側装置100のハードウェア構成の例を示すブロック図である。 ユーザ側装置200のハードウェア構成の例を示すブロック図である。 深層学習装置100Aの機能の例を説明するためのブロック図である。 深層学習処理の流れの例を示すフローチャートである。 ニューラルネットワークを説明するための模式図である。 画像解析装置200Aの機能の例を説明するためのブロック図である 画像解析処理の流れの例を示すフローチャートである。 画像解析システム2の構成例の概略を示す図である。 統合型の画像解析装置200Bの機能の例を説明するためのブロック図である。 画像解析システム3の構成例の概略を示す図である。 統合型の画像解析装置100Bの機能の例を説明するためのブロック図である。 深層学習アルゴリズムを用いた細胞の種類の識別結果を示す。 深層学習アルゴリズムを用いた細胞の特徴の識別結果を示す。
以下、本発明の概要及び実施の形態を、添付の図面を参照して詳細に説明する。なお、以下の説明及び図面において、同じ符号は同じ又は類似の構成要素を示すこととし、よって、同じ又は類似の構成要素に関する説明を省略する。
[1.画像の解析方法]
本開示の第1の実施形態は、細胞形態を解析する画像の解析方法に関する。前記画像の解析方法は、解析対象の細胞に関する情報を含む解析データを、ニューラルネットワーク構造を有する深層学習アルゴリズムを含む識別器(Classifier)に入力する。前記識別器は、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出する。好ましくは、画像解析方法は、前記確率に基づいて、前記解析対象の細胞が、所定の細胞群に属する複数の細胞の形態分類のいずれかを識別することをさらに含む。
第1の実施形態において、解析対象の細胞は、所定の細胞群に属する。所定の細胞群は、哺乳動物や鳥類の体内の各器官を構成する細胞群である。所定の細胞群には、正常の場合、組織学的な顕微鏡観察や細胞学的な顕微鏡観察により形態学的に分類される複数の細胞の種類が含まれる。形態学的な分類(「形態分類」ともいう)は、細胞の種類の分類と細胞の形態学的な特徴の分類を含む。好ましくは、解析対象の細胞は、所定の細胞群に属する所定の細胞系統に属する細胞群である。所定の細胞系統とは、ある一種の組織幹細胞から分化した同じ系統に属する細胞群である。所定の細胞系統として好ましくは、造血系であり、より好ましくは血液中の細胞(「血中細胞」ともいう)である。
造血系細胞は、従来法では、明視野用の染色を施した標本を顕微鏡の明視野でヒトが観察することにより、形態学的に分類される。前記染色は、ライト染色、ギムザ染色、ライトギムザ染色及びメイギムザ染色から選択されることが好ましい。より好ましくはメイギムザ染色である。標本は、所定の細胞群に属する各細胞の形態を個々に観察できる限り制限されない。例えば、塗抹標本、及び捺印標本等を挙げることができる。好ましくは、末梢血又は骨髄を試料とした塗抹標本であり、より好ましくは、末梢血の塗抹標本である。
形態学的な分類では、血中細胞は、分葉核好中球及び桿状核好中球を含む好中球、後骨髄球、骨髄球、前骨髄球、芽球、リンパ球、形質細胞、異型リンパ球、単球、好酸球、好塩基球、赤芽球(有核赤血球であり、前赤芽球、好塩基性赤芽球、多染性赤芽球、正染性赤芽球、前巨赤芽球、好塩基性巨赤芽球、多染性巨赤芽球、及び正染性巨赤芽球を含む)、巨大血小板、血小板凝集塊、及び巨核球(有核巨核球であり、ミクロメガカリオサイトを含む)等の細胞の種類を含む。
また、前記所定の細胞群には、正常細胞の他、形態学的な異常所見を呈する異常細胞が含まれていてもよい。異常は、形態学的に分類される細胞の特徴として現れる。異常細胞の例は、所定の疾患に罹患した際に出現する細胞であり、例えば腫瘍細胞等である。造血系の場合、所定の疾患は、骨髄異型性症候群、白血病(急性骨髄芽球性白血病、急性骨髄芽球性白血病、急性前骨髄球性白血病、急性骨髄単球性白血病、急性単球性白血病、赤白血病、急性巨核芽球性白血病、急性骨髄性白血病、急性リンパ球性白血病、リンパ芽球性白血病、慢性骨髄性白血病、及び慢性リンパ球性白血病等を含む、悪性リンパ腫(ホジキンリンパ腫及び非ホジキンリンパ腫等)、及び多発性骨髄腫よりなる群から選択される疾患である。また、造血系の場合、異常所見は、形態核異常、空胞の存在、顆粒形態異常、顆粒分布異常、異常顆粒の存在、細胞の大きさ異常、封入体の存在及び裸核よりなる群から選択される少なくとも一種の形態学的特徴を有する細胞である。
形態核異常には、核が小さくなるもの、核が大きくなるもの、核が過分葉になるもの、正常であれば分葉するべき核が分葉していないもの(偽ペルゲルの核異常等を含む)、空胞があるもの、核小体が肥大しているもの、核に切れ込みがあるもの、及び本来であれば1細胞に1つの核を有するべきところ1細胞に2核異常が存在するもの等を挙げることができる。
細胞全体の形態の異常として、細胞質に空胞を有するもの(空胞変性とも呼ぶ)、アズール顆粒、好中性顆粒、好酸性顆粒、好塩基性顆粒等の顆粒に形態的な異常を有するもの、前記顆粒の分布の異常(過剰、又は減少若しくは消失)を有するもの、異常顆粒(例えば、中毒性顆粒等)を有するもの、細胞の大きさ異常(正常よりも大きい、又は小さい)、封入体(デーレー小体、及びアウエル小体等)を有するもの、及び裸核のもの等を挙げることができる。
<画像の解析方法の概要>
図1を用いて、画像の解析方法の概要を説明する。
画像の解析方法において使用される識別器は、ニューラルネットワーク構造を有する複数の深層学習アルゴリズム(単に「アルゴリズム」と呼ぶこともある)を含む。好ましくは、第1の深層学習アルゴリズム(50)と、第2の深層学習アルゴリズム(51)を含み、第1の深層学習アルゴリズム(50)は細胞の特徴量を抽出し、第2の深層学習アルゴリズム(51)は、第1の深層学習アルゴリズムが抽出した特徴量に基づいて、前記解析対象の細胞を識別する。より好ましくは、識別器は、図1に示すように第1の深層学習アルゴリズムの下流に、第2の深層学習アルゴリズムの他、識別の目的に応じて訓練された複数種の深層学習アルゴリズム(第2、第3、第4、第5・・・・第iとナンバリングすることがある)を含んでいてもよい。例えば、第2の深層学習アルゴリズムは、上述した形態学的な分類に基づく細胞の種類を識別する。また、例えば第3の深層学習アルゴリズムは、上述した形態学的な分類に基づく細胞の特徴を、特徴ごとに識別する。好ましくは、第1の深層学習アルゴリズムは、コンボリューションコネクトのニューラルネットワークであり、第1の深層学習アルゴリズムの下流に位置する第2以降の深層学習アルゴリズムは、フルコネクトのニューラルネットワークである。
次に、図2〜図4に示す例を用いて訓練データ75の生成方法及び画像の解析方法を説明する。以下では、説明の便宜上第1の深層学習アルゴリズムと、第2の深層学習アルゴリズムを用いて説明する。
<訓練データの生成>
深層学習アルゴリズムを訓練するために使用される訓練用画像70は、前記解析対象の細胞に対応した形態学的な分類に基づく細胞の種類や細胞の特徴が既知である細胞を撮像した画像である。訓練用画像70を撮像するための標本は、解析対象の細胞と同種の細胞を含む試料から、解析対象の細胞を含む標本と同様の標本作成方法と染色方法で作成されることが好ましい。また、訓練用画像70は、解析対象の細胞の撮像条件と同様の条件で撮像されることが好ましい。
訓練用画像70は、例えば公知の光学顕微鏡、又はバーチャルスライドスキャナ等の撮像装置を用いて、細胞ごとに予め取得することができる。図2に示す例では、Sysmex DI−60を用いて訓練用画像70は360画素×365画素で撮像された生画像を、255画素×255画素に縮小しているが、この縮小は必須ではない。訓練用画像70の画素数は、解析ができる限り制限されないが、一辺が100画素を超えていることが好ましい。また、図2に示す例では、好中球を中心とした周囲に赤血球が存在しているが、目的の細胞のみが入るように画像をトリミングしてもよい。少なくとも、1枚の画像の中に、訓練しようとする細胞を1細胞含み(赤血球、及び正常サイズの血小板は含まれていてもよい)、訓練しようとする細胞に該当する画素が画像全体画素の1/9程度以上存在していれば訓練用画像70として使用することができる。
例示的には、本実施形態において撮像装置における撮像は、RGBカラー及びCMYカラー等で行われることが好ましい。カラー画像は、赤、緑及び青又はシアン、マゼンタ、イエロー等の各原色の濃淡又は輝度を、24ビットの値(8ビット×3色)で表すことが好ましい。訓練用画像70は、少なくとも1つの色相と、その色相の濃淡又は輝度とを含んでいればよいが、少なくとも2つの色相と、それぞれ色相の濃淡又は輝度とを含むことがより好ましい。色相とその色相の濃淡又は輝度とを含む情報を色調ともいう。
次に、各画素における色調の情報を、例えば、RGBカラーから、輝度の情報と色相の情報を含むフォーマットに変換する。輝度の情報と色相の情報を含むフォーマットとして、YUV(YCbCr、YPbPr、YIQ等)等を挙げることができる。ここでは、YCbCrフォーマットへの変換を例として説明する。ここでは、訓練用画像がRGBカラーであるため、輝度72Yと、第1の色相(例えば青色系)72Cbと、第2の色相(例えば、赤色系)72Crとに変換する。RGBから、YCbCrへの変換は公知の方法により行うことができる。例えば、RGBから、YCbCrへは、国際規格ITU−R BT.601にしたがって変換できる。変換した輝度72Y、第1の色相72Cb及び第2の色相72Crはそれぞれ図2に示すように階調値の行列として表すことができる(以下、色調行列72y,72cb,72crともいう)。輝度72Y、第1の色相72Cb、第2の色相72Crは、それぞれ0から255階調までの256階調で表される。ここで、輝度72Y、第1の色相72Cb、第2の色相72Crに換えて、赤R、緑G、青Bの3原色や、シアンC、マゼンタM、イエローYの色の3原色で訓練用画像を変換してもよい。
次に、色調行列72y,72cb,72crに基づいて、画素ごとに、輝度72y、第1の色相72cb、及び第2の色相72crの3つの階調値を組み合わせた色調ベクトルデータ74を生成する。
次に、例えば、図2の訓練用画像70は分葉核好中球であるため、図2の訓練用画像70から生成される各色調ベクトルデータ74には、分葉核好中球であることを示すラベル値77として「1」が付与され、訓練データ75となる。図2では、便宜上訓練データ75を3画素×3画素で表しているが、実際は訓練用データ70を撮像した際の画素の分だけ色調ベクトルデータが存在する。
図3にラベル値77の例を示す。ラベル値は、細胞の種類及び各細胞の特徴の有無に応じて異なるラベル値77が付与される。
<深層学習の概要>
図2を例として、ニューラルネットワークの訓練の概要を説明する。第1のニューラルネットワーク50及び第2のニューラルネットワーク51共に、畳み込みニューラルネットワークであることが好ましい。第1のニューラルネットワーク50における入力層50aのノード数は、入力される訓練データ75の画素数と画像に含まれる輝度と色相の数(例えば上記例では、輝度72y、第1の色相72cb、及び第2の色相72crの3つ)との積に対応している。色調ベクトルデータ74はその集合76として第1のニューラルネットワーク50の入力層50aに入力される。訓練データ75の各画素のラベル値77を、第1のニューラルネットワークの出力層50bとして、第1のニューラルネットワーク50を訓練する。
第1のニューラルネットワーク50は、訓練データ75に基づいて、上述した形態学的な細胞の種類や細胞の特徴について、特徴量を抽出する。第1のニューラルネットワークの出力層50bは、これらの特徴量を反映する結果を出力する。第2のニューラルネットワーク51の入力層51aには、第1のニューラルネットワーク50のソフトマックス関数から出力された各結果が入力される。また、所定の細胞系統に属する細胞は、細胞の形態が似ているため、第2のニューラルネットワーク51を有する深層学習アルゴリズム51をさらに形態学的な特定の細胞の種類や特定の細胞の特徴の識別に特化するよう深層学習アルゴリズムを訓練する。したがって、第2のニューラルネットワークの出力層にも、訓練データ75のラベル値77が入力される。
図2の符号50c及び51cは、中間層を示す。
斯くして訓練された第1のニューラルネットワーク60を有する第1の深層学習アルゴリズム60と、第2のニューラルネットワーク61を有する第2の深層学習アルゴリズム61とを組み合わせて、解析対象の細胞が、所定の細胞群に属し形態学的に分類される複数の細胞の種類のいずれに該当するかを識別するための識別器として使用する。
<画像の解析方法>
図4に画像の解析方法の例を示す。画像の解析方法では、解析対象の細胞を撮像した解析用画像78から解析データ81を生成する。解析用画像78は、解析対象の細胞を撮像した画像である。解析用画像78は、例えば公知の光学顕微鏡、又はバーチャルスライドスキャナ等の撮像装置を用いて、取得することができる。図4に示す例では、Sysmex DI−60を用いて解析用画像78は、訓練用画像70と同様に、360画素×365画素で撮像された生画像を、255画素×255画素に縮小しているが、この縮小は必須ではない。訓練用画像70の画素数は、解析ができる限り制限されないが、一辺が100画素を超えていることが好ましい。また、図4に示す例では、分葉核好中球を中心とした周囲に赤血球が存在しているが、目的の細胞のみが入るように画像をトリミングしてもよい。少なくとも、1枚の画像の中に、訓練しようとする細胞を1細胞含み(赤血球、及び正常サイズの血小板は含まれていてもよい)、訓練しようとする細胞に該当する画素が画像全体画素の1/9程度以上存在していれば解析用画像78として使用することができる。
例示的には、本実施形態において撮像装置における撮像は、RGBカラー及びCMYカラー等で行われることが好ましい。カラー画像は、赤、緑及び青又はシアン、マゼンタ、イエロー等の各原色の濃淡又は輝度を、24ビットの値(8ビット×3色)で表すことが好ましい。解析用画像78は、少なくとも1つの色相と、その色相の濃淡又は輝度とを含んでいればよいが、少なくとも2つの色相と、それぞれ色相の濃淡又は輝度とを含むことがより好ましい。色相とその色相の濃淡又は輝度とを含む情報を色調ともいう。
例えば、RGBカラーから、輝度の情報と色相の情報を含むフォーマットに変換する。輝度の情報と色相の情報を含むフォーマットとして、YUV(YCbCr、YPbPr、YIQ等)等を挙げることができる。ここでは、YCbCrフォーマットへの変換を例として説明する。ここでは、訓練用画像がRGBカラーであるため、輝度79Yと、第1の色相(例えば青色系)79Cbと、第2の色相(例えば、赤色系)79Crとに変換する。RGBから、YCbCrへの変換は公知の方法により行うことができる。例えば、RGBから、YCbCrへは、国際規格ITU−R BT.601にしたがって変換できる。変換した輝度79Y、第1の色相79Cb及び第2の色相79Crはそれぞれ図2に示すように階調値の行列として表すことができる(以下、色調行列79y,79cb,79crともいう)。輝度72Y、第1の色相72Cb、第2の色相72Crは、それぞれ0から255階調までの256階調で表される。ここで、輝度79Y、第1の色相79Cb、第2の色相79Crに換えて、赤R、緑G、青Bの3原色や、シアンC、マゼンタM、イエローYの色の3原色で訓練用画像を変換してもよい。
次に、色調行列79y,79cb,79crに基づいて、画素ごとに、輝度79y、第1の色相79cb、及び第2の色相79crの3つの階調値を組み合わせた色調ベクトルデータ80を生成する。1枚の解析用画像78から生成された色調ベクトルデータ80の集合を解析データ81として生成する。
解析データ81の生成と訓練データ75の生成は、少なくとも撮像条件や、各画像からニューラルネットワークに入力するベクトルデータの生成条件を同じにすることが好ましい。
解析データ81を訓練済みの第1の深層学習アルゴリズム60を構成する第1のニューラルネットワーク60の入力層60aに入力する。第1の深層学習アルゴリズムは、解析データ81から特徴量を抽出し、その結果を第1のニューラルネットワーク60の出力層60cから出力する。出力層60cから出力される値は、訓練データとして入力された形態学的な細胞の分類や特徴のそれぞれに、解析用画像に含まれる解析対象の細胞が属する確率である。
次に、出力層60cから出力された結果を、訓練済みの第2の深層学習アルゴリズム61を構成する第2のニューラルネットワーク61の入力層61aに入力する。第2の深層学習アルゴリズム61は、入力された特徴量に基づいて、出力層61bから、訓練データとして入力された形態学的な細胞の分類や特徴のそれぞれに、解析用画像に含まれる解析対象の細胞が属する確率を出力する。さらに、この確率の中で、値が最も高い形態学的分類に、解析用画像に含まれる解析対象の細胞が属すると判断し、その形態学的な細胞の種類又は細胞の特徴をと紐付けられたラベル値が出力される。ラベル値そのもの、あるいはラベル値を形態学的な細胞の種類又は細胞の特徴の有無を示す情報(例えば用語等)に置き換えたデータが細胞の形態に関するデータ83として出力される。図4では解析データ81から、識別器によってラベル値「1」が最も可能性が高いラベル値82として出力され、このラベル値に対応する「分葉核好中球」という文字データが、細胞の形態に関するデータ83として出力される。
図4の符号60c及び61cは、中間層を示す。
[2.画像解析システム1]
<画像解析システム1の構成>
本開示における第2の実施形態は、画像解析システムに関する。
図5を参照すると、第2の実施形態に係る画像解析システムは、深層学習装置100Aと、画像解析装置200Aとを備える。ベンダ側装置100は深層学習装置100Aとして動作し、ユーザ側装置200は画像解析装置200Aとして動作する。深層学習装置100Aは、ニューラルネットワーク50に訓練データを使って学習させ、訓練データによって訓練された深層学習アルゴリズム60をユーザに提供する。学習済みのニューラルネットワーク60から構成される深層学習アルゴリズムは、記録媒体98又はネットワーク99を通じて、深層学習装置100Aから画像解析装置200Aに提供される。画像解析装置200Aは、学習済みのニューラルネットワーク60から構成される深層学習アルゴリズムを用いて解析対象の画像の解析を行う。
深層学習装置100Aは、例えば汎用コンピュータで構成されており、後述するフローチャートに基づいて、深層学習処理を行う。画像解析装置200Aは、例えば汎用コンピュータで構成されており、後述するフローチャートに基づいて、画像解析処理を行う。記録媒体98は、例えばDVD−ROMやUSBメモリ等の、コンピュータ読み取り可能であって非一時的な有形の記録媒体である。
深層学習装置100Aは撮像装置300に接続されている。撮像装置300は、撮像素子301と、蛍光顕微鏡302とを備え、ステージ309上にセットされた学習用の標本308の、明視野画像を撮像する。訓練用の標本308は、上述の染色が施されている。深層学習装置100Aは、撮像装置300によって撮像された訓練用画像70を取得する。
画像解析装置200Aは撮像装置400に接続されている。撮像装置400は、撮像素子401と、蛍光顕微鏡402とを備え、ステージ409上にセットされた解析対象の標本408の、明視野画像を撮像する。解析対象の標本408は、上述の通り予め染色されている。画像解析装置200Aは、撮像装置400によって撮像された解析対象画像78を取得する。
撮像装置300,400には、標本を撮像する機能を有する、公知の光学顕微鏡又はバーチャルスライドスキャナ等を用いることができる。
<深層学習装置のハードウェア構成>
図6を参照すると、ベンダ側装置100(深層学習装置100A,深層学習装置100B)は、処理部10(10A,10B)と、入力部16と、出力部17とを備える。
処理部10は、後述するデータ処理を行うCPU(Central Processing Unit)11と、データ処理の作業領域に使用するメモリ12と、後述するプログラム及び処理データを記録する記録部13と、各部の間でデータを伝送するバス14と、外部機器とのデータの入出力を行うインタフェース部15と、GPU(Graphics Processing Unit)19とを備えている。入力部16及び出力部17は、処理部10に接続されている。例示的には、入力部16はキーボード又はマウス等の入力装置であり、出力部17は液晶ディスプレイ等の表示装置である。GPU19は、CPU11が行う演算処理(例えば、並列演算処理)を補助するアクセラレータとして機能する。すなわち以下の説明においてCPU11が行う処理とは、CPU11がGPU19をアクセラレータとして用いて行う処理も含むことを意味する。
また、処理部10は、以下の図8で説明する各ステップの処理を行うために、本発明に係るプログラム及び訓練前のニューラルネットワーク50を、例えば実行形式で記録部13に予め記録している。実行形式は、例えばプログラミング言語からコンパイラにより変換されて生成される形式である。処理部10は、記録部13に記録したプログラムを使用して、訓練前の第1のニューラルネットワーク50及び第2のニューラルネットワーク51の訓練処理を行う。
以下の説明においては、特に断らない限り、処理部10が行う処理は、記録部13又はメモリ12に格納されたプログラム及びニューラルネットワーク50に基づいて、CPU11が行う処理を意味する。CPU11はメモリ12を作業領域として必要なデータ(処理途中の中間データ等)を一時記憶し、記録部13に演算結果等の長期保存するデータを適宜記録する。
<画像解析装置のハードウェア構成>
図7を参照すると、ユーザ側装置200(画像解析装置200A,画像解析装置200B,画像解析装置200C)は、処理部20(20A,20B,20C)と、入力部26と、出力部27とを備える。
処理部20は、後述するデータ処理を行うCPU(Central Processing Unit)21と、データ処理の作業領域に使用するメモリ22と、後述するプログラム及び処理データを記録する記録部23と、各部の間でデータを伝送するバス24と、外部機器とのデータの入出力を行うインタフェース部25と、GPU(Graphics Processing Unit)29とを備えている。入力部26及び出力部27は、処理部20に接続されている。例示的には、入力部26はキーボード又はマウス等の入力装置であり、出力部27は液晶ディスプレイ等の表示装置である。GPU29は、CPU21が行う演算処理(例えば、並列演算処理)を補助するアクセラレータとして機能する。すなわち以下の説明においてCPU21が行う処理とは、CPU21がGPU29をアクセラレータとして用いて行う処理も含むことを意味する。
また、処理部20は、以下の画像解析処理で説明する各ステップの処理を行うために、本発明に係るプログラム及び訓練済みのニューラルネットワーク構造の深層学習アルゴリズム60を、例えば実行形式で記録部23に予め記録している。実行形式は、例えばプログラミング言語からコンパイラにより変換されて生成される形式である。処理部20は、記録部23に記録したプログラム及び第1の深層学習アルゴリズム60及び第2の深層学習アルゴリズム61を使用して処理を行う。
以下の説明においては、特に断らない限り、処理部20が行う処理は、記録部23又はメモリ22に格納されたプログラム及び深層学習アルゴリズム60に基づいて、実際には処理部20のCPU21が行う処理を意味する。CPU21はメモリ22を作業領域として必要なデータ(処理途中の中間データ等)を一時記憶し、記録部23に演算結果等の長期保存するデータを適宜記録する。
<機能ブロック及び処理手順>
(深層学習処理)
図8を参照すると、本実施形態に係る深層学習装置100Aの処理部10Aは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103とを備える。これらの機能ブロックは、コンピュータに深層学習処理を実行させるプログラムを、処理部10Aの記録部13又はメモリ12にインストールし、このプログラムをCPU11が実行することにより実現される。訓練データデータベース(DB)104と、アルゴリズムデータベース(DB)105とは、処理部10Aの記録部13又はメモリ12に記録される。
訓練用画像70は、撮像装置300によって予め撮像され、処理部10Aの記録部13又はメモリ12に予め記憶されている。第1の深層学習アルゴリズム50及び第2の深層学習アルゴリズム51は、例えば解析対象の細胞が属する形態学的な細胞の種類や細胞の特徴と対応付けられて、アルゴリズムデータベース105に予め格納されている。
深層学習装置100Aの処理部10Aは、図9に示す処理を行う。図8に示す各機能ブロックを用いて説明すると、ステップS11、S12、S16及びS17の処理は、訓練データ生成部101が行う。ステップS13の処理は、訓練データ入力部102が行う。ステップS14、及びS18の処理は、アルゴリズム更新部103が行う。
図9を用いて、処理部10Aが行う深層学習処理の例について説明する。
はじめに、処理部10Aは、訓練用画像70を取得する。訓練用画像70の取得は、オペレータの操作によって、撮像装置300から取り込まれるか、記録媒体98から取り込まれるか、ネットワーク経由でI/F部15を介して行われる。訓練用画像70を取得する際に、その訓練用画像70が、形態学的に分類される細胞の種類及び/又は形態学的な細胞の特徴のいずれを示すものであるかの情報も取得される。形態学的に分類される細胞の種類及び/又は形態学的な細胞の特徴のいずれを示すものであるかの情報は、訓練用画像70に紐付けられていてもよく、またオペレータが入力部16から入力してもよい。
ステップS11において、処理部10Aは、取得された訓練用画像70を輝度Y、第1の色相Cb及び第2の色相Crに変換し、上記訓練データの生成方法で説明した手順に従い色調ベクトルデータ74を生成する。
ステップS12において、処理部10Aは、訓練用画像70に紐付けられている、形態学的に分類される細胞の種類及び/又は形態学的な分類における細胞の特徴のいずれを示すものであるかの情報と、メモリ12又は記録部13に記憶されている形態学的に分類される細胞の種類又は形態学的な分類における細胞の特徴に紐図けられたラベル値とに基づいて色調ベクトルデータ74に対応するラベル値を付与する。斯くして、処理部10Aは、訓練データ75を生成する。
図8に示すステップS13において、処理部10Aは、訓練データ75を用いて、第1のニューラルネットワーク50及び第2のニューラルネットワーク51を訓練する。第1のニューラルネットワーク50及び第2のニューラルネットワーク51の訓練結果は複数の訓練データ75を用いて訓練する度に蓄積される。
本実施形態に係る画像解析方法では、畳み込みニューラルネットワークを使用しており、確率的勾配降下法を用いるため、ステップS14において、処理部10Aは、予め定められた所定の試行回数分の訓練結果が蓄積されているか否かを判断する。訓練結果が所定の試行回数分蓄積されている場合(YES)、処理部10AはステップS15の処理に進み、訓練結果が所定の試行回数分蓄積されていない場合(NO)、処理部10AはステップS16の処理に進む。
次に、訓練結果が所定の試行回数分蓄積されている場合、ステップS15において、処理部10Aは、ステップS13において蓄積しておいた訓練結果を用いて、第1のニューラルネットワーク50及び第2のニューラルネットワーク51の結合重みwを更新する。本実施形態に係る画像解析方法では、確率的勾配降下法を用いるため、所定の試行回数分の学習結果が蓄積した段階で、第1のニューラルネットワーク50及び第2のニューラルネットワーク51の結合重みwを更新する。結合重みwを更新する処理は、具体的には、後述の(式11)及び(式12)に示される、勾配降下法による計算を実施する処理である。
ステップS16において、処理部10Aは、第1のニューラルネットワーク50及び第2のニューラルネットワーク51を規定数の訓練用データ75で訓練したか否かを判断する。規定数の訓練用データ75で訓練した場合(YES)には、深層学習処理を終了する。
第1のニューラルネットワーク50及び第2のニューラルネットワーク51を規定数の訓練用データ75で訓練していない場合(NO)には、処理部10Aは、ステップS16からステップS17に進み、次の訓練用画像70についてステップS11からステップS16までの処理を行う。
以上説明した処理にしたがって、第1のニューラルネットワーク50及び第2のニューラルネットワーク51を訓練し第2の深層学習アルゴリズム60及び第2の深層学習アルゴリズム62を得る。
(ニューラルネットワークの構造)
上述したように、本実施形態において、畳み込みニューラルネットワークを用いる。図10(a)に第1のニューラルネットワーク50と第2のニューラルネットワーク51の構造を例示する。第1のニューラルネットワーク50と第2のニューラルネットワーク51は、入力層50a,51aと、出力層50b,51bと、入力層50a,51a及び出力層50b,51bの間の中間層50c,51cとを備え、中間層50c,51cが複数の層で構成されている。中間層50c,51cを構成する層の数は、例えば5層以上とすることができる。
第1のニューラルネットワーク50と第2のニューラルネットワーク51では、層状に配置された複数のノード89が、層間において結合されている。これにより、情報が入力側の層50a,51aから出力側の層50b,51bに、図中矢印Dに示す一方向のみに伝播する。
(各ノードにおける演算)
図10(b)は、各ノードにおける演算を示す模式図である。各ノード89では、複数の入力を受け取り、1つの出力(z)を計算する。図10(b)に示す例の場合、ノード89は4つの入力を受け取る。ノード89が受け取る総入力(u)は、以下の(式1)で表される。
各入力には、それぞれ異なる重みが掛けられる。(式1)中、bはバイアスと呼ばれる値である。ノードの出力(z)は、(式1)で表される総入力(u)に対する所定の関数fの出力となり、以下の(式2)で表される。関数fは活性化関数と呼ばれる。
図10(c)は、ノード間の演算を示す模式図である。ニューラルネットワーク50では、(式1)で表される総入力(u)に対して、(式2)で表される結果(z)を出力するノードが層状に並べられている。前の層のノードの出力が、次の層のノードの入力となる。図10(c)に示す例では、図中左側の層のノード89aの出力が、図中右側の層のノード89bの入力となる。右側の層の各ノード89bは、それぞれ、左側の層のノード89aからの出力を受け取る。左側の層の各ノード89aと右側の層の各ノード89bとの間の各結合には、異なる重みが掛けられる。左側の層の複数のノード89aのそれぞれの出力をx〜xとすると、右側の層の3つのノード89bのそれぞれに対する入力は、以下の(式3−1)〜(式3−3)で表される。
これら(式3−1)〜(式3−3)を一般化すると、(式3−4)となる。ここで、i=1,・・・I、j=1,・・・Jである。
(式3−4)を活性化関数に適用すると出力が得られる。出力は以下の(式4)で表される。
(活性化関数)
実施形態に係る画像解析方法では、活性化関数として、正規化線形関数(rectified linear unit function)を用いる。正規化線形関数は以下の(式5)で表される。
(式5)は、z=uの線形関数のうち、u<0の部分をu=0とする関数である。図9(c)に示す例では、j=1のノードの出力は、(式5)により、以下の式で表される。
(ニューラルネットワークの学習)
ニューラルネットワークを用いて表現される関数をy(x:w)とおくと、関数y(x:w)は、ニューラルネットワークのパラメータwを変化させると変化する。入力xに対してニューラルネットワークがより好適なパラメータwを選択するように、関数y(x:w)を調整することを、ニューラルネットワークの学習と呼ぶ。ニューラルネットワークを用いて表現される関数の入力と出力との組が複数与えられているとする。ある入力xに対する望ましい出力をdとすると、入出力の組は、{(x,d),(x,d),・・・,(x,d)}と与えられる。(x,d)で表される各組の集合を、訓練データと呼ぶ。具体的には、図2(b)に示す、R、G、B各色の単一色画像における画素ごとの色濃度値と真値像のラベルとの組、の集合が、図2(a)に示す訓練データである。
ニューラルネットワークの学習とは、どのような入出力の組(x,d)に対しても、入力xを与えたときのニューラルネットワークの出力y(x:w)が、出力dになるべく近づくように重みwを調整することを意味する。誤差関数(error function)とは、ニューラルネットワークを用いて表現される関数と訓練データとの近さ
を測る尺度である。誤差関数は損失関数(loss function)とも呼ばれる。実施形態に係る画像解析方法において用いる誤差関数E(w)は、以下の(式6)で表される。(式6)は交差エントロピー(cross entropy)と呼ばれる。
(式6)の交差エントロピーの算出方法を説明する。実施形態に係る画像解析方法において用いるニューラルネットワーク50の出力層50bでは、すなわちニューラルネットワークの最終層では、入力xを内容に応じて有限個のクラスに分類するための活性化関数を用いる。活性化関数はソフトマックス関数(softmax function)と呼ばれ、以下の(式7)で表される。なお、出力層50bには、クラス数kと同数のノードが並べられているとする。出力層Lの各ノードk(k=1,・・・K)の総入力uは、前層L−1の出力から、u (L)で与えられるとする。これにより、出力層のk番目のノードの出力は以下の(式7)で表される。
(式7)がソフトマックス関数である。(式7)で決まる出力y,・・・,yの総和は常に1となる。
各クラスをC,・・・,Cと表すと、出力層Lのノードkの出力y(すなわちu (L))は、与えられた入力xがクラスCに属する確率を表す。以下の(式8)を参照されたい。入力xは、(式8)で表される確率が最大になるクラスに分類される。
ニューラルネットワークの学習では、ニューラルネットワークで表される関数を、各クラスの事後確率(posterior probability)のモデルとみなし、そのような確率モデルの下で、訓練データに対する重みwの尤度(likelihood)を評価し、尤度を最大化するような重みwを選択する。
(式7)のソフトマックス関数による目標出力dを、出力が正解のクラスである場合のみ1とし、出力がそれ以外の場合は0になるとする。目標出力をd=[dn1,・・・,dnK]というベクトル形式で表すと、例えば入力xの正解クラスがCである場合、目標出力dn3のみが1となり、それ以外の目標出力は0となる。このように符号化すると、事後分布(posterior)は以下の(式9)で表される。
訓練データ{(x,d)}(n=1,・・・,N)に対する重みwの尤度L(w)は、以下の(式10)で表される。尤度L(w)の対数をとり符号を反転すると、(式6)の誤差関数が導出される。
学習は、訓練データを基に計算される誤差関数E(w)を、ニューラルネットワークのパラメータwについて最小化することを意味する。実施形態に係る画像解析方法では、誤差関数E(w)は(式6)で表される。
誤差関数E(w)をパラメータwについて最小化することは、関数E(w)の局所的な極小点を求めることと同じ意味である。パラメータwはノード間の結合の重みである。重みwの極小点は、任意の初期値を出発点として、パラメータwを繰り返し更新する反復計算によって求められる。このような計算の一例には、勾配降下法(gradient descent method)がある。
勾配降下法では、次の(式11)で表されるベクトルを用いる。
勾配降下法では、現在のパラメータwの値を負の勾配方向(すなわち−∇E)に移動させる処理を何度も繰り返す。現在の重みをw(t)とし、移動後の重みをw(t+1)とすると、勾配降下法による演算は、以下の(式12)で表される。値tは、パラメータwを移動させた回数を意味する。
記号
は、パラメータwの更新量の大きさを決める定数であり、学習係数と呼ばれる。(式12)で表される演算を繰り返すことにより、値tの増加に伴って誤差関数E(w(t))が減少し、パラメータwは極小点に到達する。
なお、(式12)による演算は、全ての訓練データ(n=1,・・・,N)に対して実施してもよく、一部の訓練データのみに対して実施してもよい。一部の訓練データのみに対して行う勾配降下法は、確率的勾配降下法(stochastic gradient descent)と呼ばれる。実施形態に係る画像解析方法では、確率的勾配降下法を用いる。
(画像解析処理)
図11に、解析対象画像78から、細胞の形態に関するデータ83を生成するまでの画像解析処理を行う画像解析装置200Aの機能ブロック図を示す。画像解析装置200Aの処理部20Aは、解析用データ生成部201と、解析用データ入力部202と、解析部203と、細胞核領域検出部204とを備える。これらの機能ブロックは、本発明に係るコンピュータに画像解析処理を実行させるプログラムを、処理部20Aの記録部23又はメモリ22にインストールし、このプログラムをCPU21が実行することにより実現される。訓練データデータベース(DB)104と、アルゴリズムデータベース(DB)105とは、記録媒体98又はネットワーク99を通じて深層学習装置100Aから提供され、処理部20Aの記録部23又はメモリ22に記録される。
解析対象画像78は、撮像装置400によって撮像され、処理部20Aの記録部23又はメモリ22に記憶される。訓練済みの結合重みwを含む第1の深層学習アルゴリズム60及び第2の深層学習アルゴリズム61は、例えば解析対象の細胞が属する形態学的な分類に基づく細胞の種類や細胞の特徴と対応付けられて、アルゴリズムデータベース105に格納されており、コンピュータに画像解析処理を実行させるプログラムの一部であるプログラムモジュールとして機能する。すなわち、第1の深層学習アルゴリズム60及び第2の深層学習アルゴリズム61は、CPU及びメモリを備えるコンピュータにて用いられ、前記解析対象の細胞が、所定の細胞群に属し形態学的に分類される複数の細胞の種類のいずれに該当するかを識別し、前記細胞の形態に関するデータ83を生成するために使用される。また生成されたデータは、必要に応じて出力される。また、処理部20AのCPU21は、使用目的に応じた特有の情報の演算又は加工を実行するよう、コンピュータを機能させる。具体的には、処理部20AのCPU21は、記録部23又はメモリ22に記録された第1の深層学習アルゴリズム60及び第2の深層学習アルゴリズム61を用いて、細胞の形態に関するデータ83を生成する。処理部20AのCPU21は、解析データ81を入力層60aに入力し、第1の深層学習アルゴリズム60によって算出さえた解析用画像78の特徴量を出力層60bから出力する。処理部20AのCPU21は、第1の深層学習アルゴリズム60から出力された特徴量を、第2の深層学習アルゴリズムの入力層61aに入力し、解析対象の細胞が属する形態学的な分類に基づく細胞の種類や細胞の特徴に関するラベル値を出力層61bから解析対象画像に含まれる細胞が属すると識別された形態学的な分類に基づく細胞の種類又は細胞の特徴のラベル値を出力する。
図11に示す各機能ブロックを用いて説明すると、ステップS21及びS22の処理は、解析用データ生成部201が行う。ステップS23、S24、S25及びS27の処理は、解析用データ入力部202が行う。ステップS26の処理は、解析部203が行う。
図12を用いて、処理部20Aが行う解析対象画像78から、細胞の形態に関するデータ83を生成するまでの画像解析処理の例を説明する。
はじめに、処理部20Aは、解析用画像78を取得する。解析用画像78の取得は、ユーザの操作によって、撮像装置400から取り込まれるか、記録媒体98から取り込まれるか、ネットワーク経由でI/F部25を介して行われる。
ステップS21において、図9に示すステップS11と同様に、取得された解析用画像78を輝度Y、第1の色相Cb及び第2の色相Crに変換し、上記解析データの生成方法で説明した手順に従い色調ベクトルデータ80を生成する。
次に、ステップS22において、処理部20Aは、色調ベクトルデータ80から、上記解析データの生成方法で説明した手順に従い解析データ81を生成する。
次に、ステップS23において、処理部20Aは、アルゴリズムデータベース105に格納されている第1の深層学習アルゴリズムと第2の深層学習アルゴリズムを取得する。
次に、ステップS24において、処理部20Aは、解析データ81を第1の深層学習アルゴリズムに入力する。処理部20Aは、上記画像の解析方法で述べた手順に従い、第1の深層学習アルゴリズムから、出力された特徴量を第2の深層学習アルゴリズムに入力し、第2の深層学習アルゴリズムから、解析用画像に含まれる解析対象の細胞が属すると判断される、ラベル値が出力される。処理部20Aは、このラベル値をメモリ22又は記録部23に記憶する。
ステップS25において、処理部20Aは、はじめに取得した解析用画像78を全て識別したかを判断する。全ての解析用画像78の識別が終わっている(YES)の場合には、ステップS26へ進み、細胞の形態に関するデータ83を含む解析結果を出力する。全ての解析用画像78の識別が終わっていない(NO)の場合には、ステップS27に進み、まだ識別を行っていない解析用画像78に対して、ステップS21からステップS25の処理を行う。
本実施形態により、検査者のスキルを問わず形態学的な分類に基づく細胞の種類及び細胞の特徴の識別を行うことが可能となり、形態検査のばらつきを抑制することができる。
<コンピュータプログラム>
本開示には、ステップS11〜S17及び/又はS21〜S27の処理をコンピュータに実行させる、細胞の形態を解析する画像解析するためのコンピュータプログラムを含む。
さらに、本開示のある実施形態は、前記コンピュータプログラムを記憶した、記憶媒体等のプログラム製品に関する。すなわち、前記コンピュータプログラムは、ハードディスク、フラッシュメモリ等の半導体メモリ素子、光ディスク等の記憶媒体に記憶される。前記記憶媒体へのプログラムの記憶形式は、前記提示装置が前記プログラムを読み取り可能である限り制限されない。前記記憶媒体への記憶は、不揮発性であることが好ましい。
[3.画像解析システム2]
<画像解析システム2の構成>
画像解析システムの別の態様について説明する。
図13に第2の画像解析システムの構成例を示す。第2の画像解析システムは、ユーザ側装置200を備え、ユーザ側装置200が、統合型の画像解析装置200Bとして動作する。画像解析装置200Bは、例えば汎用コンピュータで構成されており、上記画像解析システム1で説明した深層学習処理及び画像解析処理の両方の処理を行う。つまり、第2の画像解析システムは、ユーザ側で深層学習及び画像解析を行う、スタンドアロン型のシステムである。第2の画像解析システムは、ユーザ側に設置された統合型の画像解析装置200Bが、第1の実施形態に係る深層学習装置100A及び画像解析装置200Aの両方の機能を担う。
図13において、画像解析装置200Bは撮像装置400に接続されている。撮像装置400は、深層学習処理時には、訓練用画像70を撮像し、画像解析処理時には、解析対象画像78を撮像する。
<ハードウェア構成>
画像解析装置200Bのハードウェア構成は、図7に示すユーザ側装置200のハードウェア構成と同様である。
<機能ブロック及び処理手順>
図14に、画像解析装置200Bの機能ブロック図を示す。画像解析装置200Bの処理部20Bは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103と、解析用データ生成部201と、解析用データ入力部202と、解析部203と、細胞核検出部204とを備える。これらの機能ブロックは、コンピュータに深層学習処理及び画像解析処理を実行させるプログラムを、処理部20Bの記録部23又はメモリ22にインストールし、このプログラムをCPU21が実行することにより実現される。訓練データデータベース(DB)104と、アルゴリズムデータベース(DB)105とは、処理部20Bの記録部23又はメモリ22に記憶され、どちらも深層学習時及び画像解析処理時に共通して使用される。訓練済みの第1のニューラルネットワーク60及び第2のニューラルネットワーク61は、例えば解析対象の細胞が属する形態学的な分類に基づく細胞の種類や細胞の特徴と対応付けられて、アルゴリズムデータベース105に予め格納されている。深層学習処理により結合重みwが更新されて、深層学習アルゴリズム60として、アルゴリズムデータベース105に格納される。なお、訓練用画像70は、撮像装置400によって予め撮像され、訓練データデータベース(DB)104又は処理部20Bの記録部23若しくはメモリ22に予め記憶されていることとする。解析対象の標本の解析対象画像78は、撮像装置400によって予め撮像され、処理部20Bの記録部23又はメモリ22に予め記憶されていることとする。
画像解析装置200Bの処理部20Bは、深層学習処理時には、図9に示す処理を行い、画像解析処理時には、図12に示す処理を行う。図13に示す各機能ブロックを用いて説明すると、深層学習処理時には、ステップS11、S12、S16及びS17の処理は、訓練データ生成部101が行う。ステップS13の処理は、訓練データ入力部102が行う。ステップS14、及びS18の処理は、アルゴリズム更新部103が行う。画像解析処理時には、ステップS21及びS22の処理は、解析用データ生成部201が行う。ステップS23、S24、S25及びS27の処理は、解析用データ入力部202が行う。ステップS26の処理は、解析部203が行う。
画像解析装置200Bが行う深層学習処理の手順及び画像解析処理の手順は、深層学習装置100A及び画像解析装置200Aがそれぞれ行う手順と同様である。但し、画像解析装置200Bは、訓練画像70を撮像装置400から取得する。
画像解析装置200Bでは、ユーザが、識別器の識別精度を確認することができる。万が一識別器の識別結果がユーザの画像観察による識別結果と異なる場合には、解析データ81を訓練データ78として、ユーザの画像観察による識別結果をラベル値77として、第1の深層学習アルゴリズムと第2の深層学習アルゴリズムを訓練し治すことができる。このようにすることにより、第1のニューラルネットワーク50及び第1のニューラルネットワーク51の訓練効率をより向上することがでる。
[3.画像解析システム3]
<画像解析システム3の構成>
画像解析システムの別の態様について説明する。
図15に第3の画像解析システムの構成例を示す。第3の画像解析システムは、ベンダ側装置100と、ユーザ側装置200とを備える。ベンダ側装置100は統合型の画像解析装置100Bとして動作し、ユーザ側装置200は端末装置200Cとして動作する。画像解析装置100Bは、例えば汎用コンピュータで構成されており、上記画像解析システム1で説明した深層学習処理及び画像解析処理の両方の処理を行う、クラウドサーバ側の装置である。端末装置200Cは、例えば汎用コンピュータで構成されており、ネットワーク99を通じて、解析対象の画像を画像解析装置100Bに送信し、ネットワーク99を通じて、解析結果の画像を画像解析装置100Bから受信する、ユーザ側の端末装置である。
第3の画像解析システムは、ベンダ側に設置された統合型の画像解析装置100Bが、深層学習装置100A及び画像解析装置200Aの両方の機能を担う。一方、第3の画像解析システムは、端末装置200Cを備え、解析用画像78の入力インタフェースと、解析結果の画像の出力インタフェースとをユーザ側の端末装置200Cに提供する。つまり、第3の画像解析システムは、深層学習処理及び画像解析処理を行うベンダ側が、解析用画像78をユーザ側に提供する入力インタフェースと、細胞の形態に関するデータ83をユーザ側に提供する出力インタフェースを、クラウドサービス型のシステムである。入力インタフェースと出力インタフェースは一体化されていてもよい。
画像解析装置100Bは撮像装置300に接続されており、撮像装置300によって撮像される、訓練用画像70を取得する。
端末装置200Cは撮像装置400に接続されており、撮像装置400によって撮像される、解析対象画像78を取得する。
<ハードウェア構成>
画像解析装置100Bのハードウェア構成は、図6に示すベンダ側装置100のハードウェア構成と同様である。端末装置200Cのハードウェア構成は、図7に示すユーザ側装置200のハードウェア構成と同様である。
<機能ブロック及び処理手順>
図16に、画像解析装置100Bの機能ブロック図を示す。画像解析装置100Bの処理部10Bは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103と、解析用データ生成部201と、解析用データ入力部202と、解析部203と、細胞核領域検出部204とを備える。これらの機能ブロックは、コンピュータに深層学習処理及び画像解析処理を実行させるプログラムを、処理部10Bの記録部13又はメモリ12にインストールし、このプログラムをCPU11が実行することにより実現される。訓練データデータベース(DB)104と、アルゴリズムデータベース(DB)105とは、処理部10Bの記録部13又はメモリ12に記憶され、どちらも深層学習時及び画像解析処理時に共通して使用される。第1のニューラルネットワーク50及び第2のニューラルネットワーク51は、例えば解析対象の細胞が属する形態学的な分類に基づく細胞の種類や細胞の特徴と対応付けられて、アルゴリズムデータベース105に予め格納されており、深層学習処理により結合重みwが更新されて、第1の深層学習アルゴリズム60及び第2の深層学習アルゴリズム61として、アルゴリズムデータベース105に格納される。
訓練用画像70は、撮像装置300によって予め撮像され、訓練データデータベース(DB)104又は処理部10Bの記録部13若しくはメモリ12に予め記載されている。解析対象画像78は、撮像装置400によって撮像され、端末装置200Cの処理部20Cの記録部23又はメモリ22に予め記録されていることとする。
画像解析装置100Bの処理部10Bは、深層学習処理時には、図9に示す処理を行い、画像解析処理時には、図12に示す処理を行う。図16に示す各機能ブロックを用いて説明すると、深層学習処理時には、ステップS11、S12、S16及びS17の処理は、訓練データ生成部101が行う。ステップS13の処理は、訓練データ入力部102が行う。ステップS14、及びS18の処理は、アルゴリズム更新部103が行う。画像解析処理時には、ステップS21及びS22の処理は、解析用データ生成部201が行う。ステップS23、S24、S25及びS27の処理は、解析用データ入力部202が行う。ステップS26の処理は、解析部203が行う。
画像解析装置100Bが行う深層学習処理の手順及び画像解析処理の手順は、第1の実施形態に係る深層学習装置100A及び画像解析装置200Aがそれぞれ行う手順と同様である。
処理部10Bは、解析対象画像78を、ユーザ側の端末装置200Cから受信し、図9に示すステップS11からS17にしたがって訓練データ75を生成する。
図12に示すステップS26において、処理部10Bは、細胞の形態に関するデータ83を含む解析結果を、ユーザ側の端末装置200Cに送信する。ユーザ側の端末装置200Cでは、処理部20Cが、受信した解析結果を出力部27に出力する。
以上、端末装置200Cのユーザは、解析対象画像78を画像解析装置100Bに送信することにより、解析結果として、細胞の形態に関するデータ83を取得することができる。
第3の実施形態に係る画像解析装置100Bによると、ユーザは、訓練データデータベース104及びアルゴリズムデータベース105を深層学習装置100Aから取得することなく、識別器を使用することができる。これにより、形態学的な分類に基づく細胞の種類及び細胞の特徴を識別するサービスを、クラウドサービスとして提供することができる。
[4.その他の形態]
以上、本発明を概要及び特定の実施形態によって説明したが、本発明は上記した概要及び各実施形態に限定されるものではない。
本開示において、色調を輝度Yと、第1の色相Cbと、第2の色相Crとに変換して訓練データ75を生成する方法を例示しているが、色調の変換はこれに限定されない。色調を変換せずに、例えば、赤(R),緑(G),青(B)の3原色まま使用してもよい。あるいは、前記原色からいずれか1つの色相を減らした2原色としてもよい。あるいは、赤(R),緑(G),青(B)の3原色のいずれか1つ(例えば緑(G))のみの1原色としてもよい。シアン(C)、マゼンタ(M)、イエロー(Y)の3原色に変換してもよい。原色を例えば解析対象画像78も、赤(R),緑(G),青(B)の3原色のカラー画像に限定されず、2原色のカラー画像であってもよく、1以上の原色を含む画像であればよい。
上記訓練データの生成方法及び解析データの生成方法では、ステップS11において、処理部10A,20B,10Bは、訓練用画像70から色調行列72y,72cb,72crを生成しているが、訓練用画像70は輝度Yと、第1の色相Cbと、第2の色相Crとに変換された画像方法であってもよい。すなわち、処理部10A,20B,10Bは、輝度Yと、第1の色相Cbと、第2の色相Crとを初めから、例えばバーチャルスライドスキャナ等から直接取得してもよい。同様に、ステップS21において、処理部20A,20B,10Bは、解析対象画像78から色調行列72y,72cb,72crを生成しているが、処理部20A,20B,10Bは、輝度Yと、第1の色相Cbと、第2の色相Crとを初めから、例えばバーチャルスライドスキャナ等から直接取得してもよい。
RGB、CMY以外にも、YUV、及びCIE L等の種々のカラースペースを画像の取得及び色調の変換に用いることができる。
色調ベクトルデータ74及び色調ベクトルデータ80において、各画素について輝度Y、第1の色相Cb、第2の色相Crの順番で色調の情報が格納されているが、色調の情報の格納する順番及び取り扱う順番はこれに限定されない。但し色調ベクトルデータ74における色調の情報の並び順と、色調ベクトルデータ80における色調の情報の並び順とは同じであることが好ましい。
各場像解析システムにおいて、処理部10A,10Bは一体の装置として実現されているが、処理部10A,10Bは一体の装置である必要はなく、CPU11、メモリ12、記録部13、GPU19等が別所に配置され、これらがネットワークで接続されていてもよい。処理部10A,10Bと、入力部16と、出力部17とについても、一ヶ所に配置される必要は必ずしもなく、それぞれ別所に配置されて互いにネットワークで通信可能に接続されていてもよい。処理部20A,20B,20Cについても処理部10A,10Bと同様である。
上記第1から第3の実施形態では、訓練データ生成部101、訓練データ入力部102、アルゴリズム更新部103、解析用データ生成部201、解析用データ入力部202、及び解析部203の各機能ブロックは、単一のCPU11又は単一のCPU21において実行されているが、これら各機能ブロックは単一のCPUにおいて実行される必要は必ずしもなく、複数のCPUで分散して実行されてもよい。また、これら各機能ブロックは、複数のGPUで分散して実行されてもよいし、複数のCPUと複数のGPUとで分散して実行されてもよい。
上記第2及び第3の実施形態では、図9及び図12で説明する各ステップの処理を行うためのプログラムを記録部13,23に予め記録している。これに代えて、プログラムは、例えばDVD−ROMやUSBメモリ等の、コンピュータ読み取り可能であって非一時的な有形の記録媒体98から処理部10B,20Bにインストールしてもよい。又は、処理部10B,20Bをネットワーク99と接続し、ネットワーク99を介して例えば外部のサーバ(図示せず)からプログラムをダウンロードしてインストールしてもよい。
各画像解析システムにおいて、入力部16,26はキーボード又はマウス等の入力装置であり、出力部17,27は液晶ディスプレイ等の表示装置として実現されている。これに代えて、入力部16,26と出力部17,27とを一体化してタッチパネル式の表示装置として実現してもよい。又は、出力部17,27をプリンター等で構成してもよい。
上記各画像解析システムでは、撮像装置300は、深層学習装置100A又は画像解析装置100Bと直接接続されているが、撮像装置300は、ネットワーク99を介して深層学習装置100A又は画像解析装置100Bと接続されていてもよい。撮像装置400についても同様に、撮像装置400は、画像解析装置200A又は画像解析装置200Bと直接接続されているが、撮像装置400は、ネットワーク99を介して画像解析装置200A又は画像解析装置200Bと接続されていてもよい。
[5.深層学習アルゴリズムの効果]
深層学習アルゴリズムの効果を検証するため、従来行われている機械学習を用いた細胞識別方法と本開示における深層学習アルゴリズムを用いた細胞識別法による細胞の識別精度の比較を行った。
末梢血塗抹標本は、塗抹標本作製装置SP-1000iで作成し、血液像自動分析装置 DI-60により、細胞の撮像を行った。染色は、メイギムザ染色である。
従来の機械学習による細胞の識別は、血液像自動分析装置 DI-60で行った。また、バリデーションは、医師及び熟練した検査技師を含む3名により画像を観察することで行った。
図17に、血球分類精度の比較結果を示す。深層学習アルゴリズムを使用した場合、従来法よりも高い精度で判別を行うことができた。
次に骨髄異型性症候群(MDS)認められる形態学的な特徴を、本開示の深層学習アルゴリズムが識別できるか検討した。その結果を図18に示す。
図18に示すように、形態核異常、空胞化、顆粒分布異常等も精度よく識別することができた。
以上の結果から、本開示における深層学習アルゴリズムは、形態学的な分類に基づく細胞の種類の識別、及び細胞の特徴を精度よく識別できると考えられた。
200 画像解析装置
10 処理部
50,51 訓練前の深層学習アルゴリズム
50a,51a 入力層
50b,51b 出力層
60,61 訓練済み深層学習アルゴリズム
75 訓練データ
80 解析データ
83 細胞の形態に関するデータ

Claims (23)

  1. ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞の形態を解析する画像解析方法であって、
    解析対象の細胞に関する情報を含む解析データを、前記深層学習アルゴリズムに入力し、
    前記深層学習アルゴリズムによって、所定の細胞群に属する複数の細胞の形態分類の各々について前記解析対象の細胞が属する確率を算出して画像を解析する、
    画像解析方法。
  2. 算出した前記確率に基づいて、前記解析対象の細胞が、所定の細胞群に属する複数の細胞の形態分類のいずれかを識別する、
    請求項1に記載の画像解析方法。
  3. 前記所定の細胞群は、血中細胞の群である、請求項1又は2に記載の画像解析方法。
  4. 前記所定の細胞群は、所定の細胞系統に属する細胞の群である、請求項1又は2に記載の画像解析方法。
  5. 前記所定の細胞系統は、造血系である、請求項4に記載の画像解析方法。
  6. 前記形態分類が、前記解析対象の細胞の種類の識別である、請求項1から5のいずれか一項に記載の画像解析方法。
  7. 前記複数の細胞の形態分類が、分葉核好中球、桿状核好中球、後骨髄球、骨髄球、芽球、リンパ球、異型リンパ球、単球、好酸球、好塩基球、赤芽球、巨大血小板、血小板凝集塊、及び巨核球よりなる群から選択される複数の細胞を含む、請求項1から6のいずれか一項に記載の画像解析方法。
  8. 前記形態分類が、前記解析対象の細胞の異常所見の識別である、請求項1から7のいずれか一項に記載の画像解析方法。
  9. 前記複数の細胞の形態分類が、形態核異常、空胞の存在、顆粒形態異常、顆粒分布異常、異常顆粒の存在、細胞の大きさ異常、封入体の存在及び裸核よりなる群から選択される少なくとも一つの細胞を含む、請求項1から8のいずれか一項に記載の画像解析方法。
  10. 前記深層学習アルゴリズムが、
    所定の細胞群に属する複数の細胞の第1の形態分類の各々について、前記解析対象の細胞が属する確率を算出する第1のアルゴリズムと、
    所定の細胞群に属する複数の細胞の第2の形態分類の各々について、前記解析対象の細胞が属する確率を算出する第2のアルゴリズムと、
    を含む、請求項1から9のいずれか一項に記載の画像解析方法。
  11. 前記第1の形態分類は、前記解析対象の細胞の種類であり、
    前記第2の形態分類は、前記解析対象の細胞の異常所見である、
    請求項10に記載の画像解析方法。
  12. 前記解析データが、染色された血中細胞を撮像した画像のデータである、請求項1から11のいずれか一項に記載の画像解析方法。
  13. 前記染色が、ライト染色、ギムザ染色、ライトギムザ染色及びメイギムザ染色から選択される、請求項12に記載の画像解析方法。
  14. 前記解析データが、解析対象画像の輝度に関する情報と、少なくとも2種の色相に関する情報を含む、請求項1から13のいずれか一項に記載の画像解析方法。
  15. ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞の形態を解析する画像解析装置であって、
    解析対象の細胞に関する情報を含む解析データを、前記深層学習アルゴリズムに入力し、前記深層学習アルゴリズムによって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出して画像を解析する処理部を備える、
    画像解析装置。
  16. 前記形態分類が、前記解析対象の細胞の種類の識別である、請求項15に記載の画像解析装置。
  17. 前記形態分類が、前記解析対象の細胞の異常所見の識別である、請求項15又は16に記載の画像解析装置。
  18. ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞の形態を解析する画像解析するためのコンピュータプログラムであって、
    解析対象の細胞に関する情報を含む解析データを、前記深層学習アルゴリズムを含む判別器に入力し、前記深層学習アルゴリズムによって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出して画像を解析する
    処理をコンピュータに実行させる、
    コンピュータプログラム。
  19. 前記形態分類が、前記解析対象の細胞の種類の識別である、請求項18に記載のコンピュータプログラム。
  20. 前記形態分類が、前記解析対象の細胞の異常所見の識別である、請求項18又は19に記載のコンピュータプログラム。
  21. 訓練済みの深層学習アルゴリズムの生成方法であって、
    細胞に関する情報を含む訓練データをニューラルネットワークの入力層に入力し、
    所定の細胞群に属する複数の細胞の形態分類に紐付けられたラベル値を出力層として入力する、
    訓練済み深層学習アルゴリズムの生成方法。
  22. 前記形態分類が、前記解析対象の細胞の種類の識別である、請求項21に記載の訓練済み深層学習アルゴリズムの生成方法。
  23. 前記形態分類が、前記解析対象の細胞の異常所見の識別である、請求項21又は22に記載の訓練済み深層学習アルゴリズムの生成方法。
JP2018091776A 2018-05-10 2018-05-10 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 Pending JP2019195304A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2018091776A JP2019195304A (ja) 2018-05-10 2018-05-10 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
EP19172959.9A EP3588368A3 (en) 2018-05-10 2019-05-07 Image analysis method, apparatus, and deep learning algorithm generation method
US16/406,523 US11093729B2 (en) 2018-05-10 2019-05-08 Image analysis method, apparatus, non-transitory computer readable medium, and deep learning algorithm generation method
CN201910387008.0A CN110472471A (zh) 2018-05-10 2019-05-10 图像解析方法、装置、存储介质和深度学习算法生成方法
US17/398,850 US11830188B2 (en) 2018-05-10 2021-08-10 Image analysis method, apparatus, non-transitory computer readable medium, and deep learning algorithm generation method
JP2023008570A JP2023061956A (ja) 2018-05-10 2023-01-24 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
US18/489,475 US20240062377A1 (en) 2018-05-10 2023-10-18 Image analysis method, apparatus, non-transitory computer readable medium, and deep learning algorithm generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018091776A JP2019195304A (ja) 2018-05-10 2018-05-10 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023008570A Division JP2023061956A (ja) 2018-05-10 2023-01-24 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法

Publications (1)

Publication Number Publication Date
JP2019195304A true JP2019195304A (ja) 2019-11-14

Family

ID=66448361

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018091776A Pending JP2019195304A (ja) 2018-05-10 2018-05-10 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
JP2023008570A Pending JP2023061956A (ja) 2018-05-10 2023-01-24 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023008570A Pending JP2023061956A (ja) 2018-05-10 2023-01-24 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法

Country Status (4)

Country Link
US (3) US11093729B2 (ja)
EP (1) EP3588368A3 (ja)
JP (2) JP2019195304A (ja)
CN (1) CN110472471A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021108186A (ja) * 2020-06-30 2021-07-29 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像認識方法、装置、電子デバイス、記憶媒体、及びプログラム
CN113192080A (zh) * 2021-04-27 2021-07-30 北京大学 一种基于边缘计算的便携式细胞成像与智能分析系统
WO2021200977A1 (ja) * 2020-03-30 2021-10-07 学校法人順天堂 疾患鑑別支援方法、疾患鑑別支援装置、及び疾患鑑別支援コンピュータプログラム
WO2022004318A1 (ja) * 2020-07-02 2022-01-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023075310A1 (ko) * 2021-10-25 2023-05-04 고려대학교 산학협력단 인공지능을 이용한 세포 판별 방법 및 장치

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9522396B2 (en) 2010-12-29 2016-12-20 S.D. Sight Diagnostics Ltd. Apparatus and method for automatic detection of pathogens
CN104169719B (zh) 2011-12-29 2017-03-08 思迪赛特诊断有限公司 用于检测生物样品中病原体的方法和系统
EP2999988A4 (en) 2013-05-23 2017-01-11 S.D. Sight Diagnostics Ltd. Method and system for imaging a cell sample
IL227276A0 (en) 2013-07-01 2014-03-06 Parasight Ltd A method and system for obtaining a monolayer of cells, for use specifically for diagnosis
EP3955042A1 (en) 2013-08-26 2022-02-16 S.D. Sight Diagnostics Ltd. Digital microscopy systems, methods and computer program products
CN107077732B (zh) 2014-08-27 2020-11-24 思迪赛特诊断有限公司 用于对数字显微镜计算聚焦变化的系统及方法
AU2016322966B2 (en) 2015-09-17 2021-10-14 S.D. Sight Diagnostics Ltd Methods and apparatus for detecting an entity in a bodily sample
CA3018536A1 (en) 2016-03-30 2017-10-05 S.D. Sight Diagnostics Ltd Distinguishing between blood sample components
US11307196B2 (en) 2016-05-11 2022-04-19 S.D. Sight Diagnostics Ltd. Sample carrier for optical measurements
WO2017195208A1 (en) 2016-05-11 2017-11-16 S.D. Sight Diagnostics Ltd Performing optical measurements on a sample
EP3710810B1 (en) 2017-11-14 2023-09-06 S.D. Sight Diagnostics Ltd. Sample carrier for optical measurements
US11621058B2 (en) * 2018-02-08 2023-04-04 Ohio State Innovation Foundation Synthetic IHC-stained digital sides generated using artificial neural networks
JP2019195304A (ja) * 2018-05-10 2019-11-14 学校法人順天堂 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
KR101962869B1 (ko) * 2018-08-02 2019-03-27 주식회사 우리메디칼 이미지 분석에 기반한 골수판독 지원 장치
CN112106064A (zh) * 2018-10-15 2020-12-18 松下知识产权经营株式会社 物体识别方法、车辆控制方法、信息显示方法以及物体识别装置
JP7096361B2 (ja) * 2018-12-14 2022-07-05 富士フイルム株式会社 ミニバッチ学習装置とその作動プログラム、作動方法、および画像処理装置
US11804050B1 (en) * 2019-10-31 2023-10-31 Nvidia Corporation Processor and system to train machine learning models based on comparing accuracy of model parameters
CN111523616B (zh) * 2020-05-14 2021-01-29 中国铁道科学研究院集团有限公司铁道建筑研究所 基于卷积神经网络的粗粒土填料级配识别方法及应用系统
WO2021253809A1 (zh) * 2020-06-19 2021-12-23 谈斯聪 血液采集分析、图像智能识别诊断一体化装置、系统及方法
US20230237660A1 (en) * 2020-06-29 2023-07-27 The Brigham And Women's Hospital, Inc. Adaptive neural networks for analyzing medical images
EP4060320A1 (en) * 2021-03-12 2022-09-21 Sysmex Corporation Analysis method and analyzer
CN113096473B (zh) * 2021-04-13 2022-08-16 刘永杰 一种精子形态学分析及教育系统
CN113283353B (zh) * 2021-05-31 2022-04-01 创芯国际生物科技(广州)有限公司 一种基于显微图像的类器官细胞计数方法及系统
FR3126253B1 (fr) 2021-08-20 2024-01-12 Visionairy Procédé pour normaliser la variabilité d’une image, application de ce procédé à la détection d’anomalie et système d’inspection visuelle implémentant cette détection
EP4312151A1 (en) 2022-07-27 2024-01-31 Siemens Healthcare GmbH Artificial intelligence training system for medical applications and method
CN115578598B (zh) * 2022-10-26 2023-09-05 北京大学第三医院(北京大学第三临床医学院) 一种基于卷积神经网络的骨髓细胞识别方法及其系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044974A (ja) * 2007-08-16 2009-03-05 Univ Nagoya 細胞の品質を予測する予測モデルの構築法、予測モデルの構築用ブログラム、該プログラムを記録した記録媒体、予測モデルの構築用装置
JP2011229413A (ja) * 2010-04-23 2011-11-17 Nagoya Univ 細胞評価装置、インキュベータ、プログラム、および、培養方法
JP2011229412A (ja) * 2010-04-23 2011-11-17 Nagoya Univ 細胞評価装置、インキュベータ、プログラム、培養方法、手技評価装置、および、細胞評価モデル構築装置
CN103745210A (zh) * 2014-01-28 2014-04-23 爱威科技股份有限公司 一种白细胞分类方法及装置
US20140185906A1 (en) * 2011-09-16 2014-07-03 Changsha High-Tech Industrial Development Zone Ave Science & Technology Industry Co., Ltd. Device and Method for Erythrocyte Morphology Analysis
JP2017516992A (ja) * 2014-05-23 2017-06-22 ベンタナ メディカル システムズ, インコーポレイテッド 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法
JP2018185759A (ja) * 2017-04-27 2018-11-22 シスメックス株式会社 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0766205B1 (fr) 1995-09-29 2003-12-03 Koninklijke Philips Electronics N.V. Procédé et dispositif de traitement d'image, pour la détection automatique de régions d'un type prédéterminé de cancer dans une image d'intensité
JPH10197522A (ja) 1997-01-14 1998-07-31 Mitsubishi Electric Corp 病理組織診断支援装置
AU2002217984A1 (en) 2000-11-30 2002-06-11 Henry M. Jackson Foundation Erythropoietin and erythropoietin receptor expression in human cancer
CA2438267C (en) 2001-02-20 2012-05-15 Larry E. Morrison Methods and probes for the detection of cancer
US20020177574A1 (en) 2001-04-20 2002-11-28 Taylor Hugh S. Endometrial gene therapy
JP4982385B2 (ja) 2005-02-01 2012-07-25 アムニス コーポレイション イメージングフローサイトメータを使用した血液及び細胞の分析
US20080033253A1 (en) 2005-10-13 2008-02-07 Neville Thomas B Computer-implemented integrated health systems and methods
EP1780651A1 (en) * 2005-10-25 2007-05-02 Bracco Imaging, S.P.A. Method and system for automatic processing and evaluation of images, particularly diagnostic images
US7805183B2 (en) 2006-06-22 2010-09-28 Wisconsin Alumni Research Foundation Stromal collagen in the diagnosis and characterization of breast cancer
US7776827B2 (en) 2007-07-27 2010-08-17 Immuneregen Biosciences, Inc. Method of using substance P analogs for treatment amelioration of myelodysplastic syndrome
US8628972B2 (en) * 2011-01-11 2014-01-14 The Regents Of The University Of California Microfluidic devices and methods for malaria detection
US9589099B2 (en) 2011-07-21 2017-03-07 The Chinese University Of Hong Kong Determination of gene expression levels of a cell type
CN102952854B (zh) 2011-08-25 2015-01-14 深圳华大基因科技有限公司 单细胞分类和筛选方法及其装置
EP2570970A1 (en) 2011-09-16 2013-03-20 Technische Universität Berlin Method and system for the automatic analysis of an image of a biological sample
CA2861437C (en) 2012-01-24 2018-08-21 Pfizer Inc. Methods for detecting 5t4-positive circulating tumor cells and methods of diagnosis of 5t4-positive cancer in a mammalian subject
US20140017717A1 (en) * 2012-05-31 2014-01-16 Auxogyn, Inc. In vitro embryo blastocyst prediction methods
CN104718552B (zh) 2012-09-13 2017-11-28 多伦多大学理事会 用于胎儿和母体红细胞计数的系统和方法
EP3063289B1 (en) 2013-10-28 2020-01-08 Molecular Devices, LLC Method and system for classifying and identifying individual cells in a microscopy image
WO2015195609A1 (en) * 2014-06-16 2015-12-23 Siemens Healthcare Diagnostics Inc. Analyzing digital holographic microscopy data for hematology applications
KR20160012758A (ko) 2014-07-25 2016-02-03 삼성전자주식회사 영상 진단 보조 장치 및 방법
US20170285035A1 (en) * 2014-09-25 2017-10-05 Epic Sciences, Inc. Circulating tumor cell diagnostics for identification of resistance to androgen receptor targeted therapies
JP6704390B2 (ja) 2014-09-29 2020-06-03 バイオサーフィット、 ソシエダッド アノニマ 血球計数
CN104732524B (zh) * 2015-02-07 2018-12-14 迈克医疗电子有限公司 血液白细胞显微图像的随机权网络分割方法
MY195031A (en) 2015-05-25 2023-01-04 Natarajan Adarsh Automated Stainer and a Method Thereof
US9836839B2 (en) 2015-05-28 2017-12-05 Tokitae Llc Image analysis systems and related methods
WO2017155869A1 (en) * 2016-03-07 2017-09-14 X-Zell Inc. Compositions and methods for identifying rare cells
CN115639134A (zh) 2016-06-10 2023-01-24 加利福尼亚大学董事会 基于图像的细胞分选系统和方法
CN106127255B (zh) 2016-06-29 2020-01-10 深圳先进技术研究院 一种癌症数字病理细胞图像的分类系统
WO2018005820A1 (en) 2016-06-29 2018-01-04 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for utlizing brain structural characteristics for predicting a diagnosis of a neurobehavioral disorder
TWI733927B (zh) 2016-11-01 2021-07-21 日商倉敷紡績股份有限公司 細胞測定方法
US20180157972A1 (en) 2016-12-02 2018-06-07 Apple Inc. Partially shared neural networks for multiple tasks
DE112017006136T5 (de) 2016-12-05 2019-08-22 Avigilon Corporation System und Verfahren zur CNN-Schichtenteilung
US10438096B2 (en) 2016-12-27 2019-10-08 Definiens Ag Identifying and excluding blurred areas of images of stained tissue to improve cancer scoring
US20180211380A1 (en) 2017-01-25 2018-07-26 Athelas Inc. Classifying biological samples using automated image analysis
US10134131B1 (en) * 2017-02-15 2018-11-20 Google Llc Phenotype analysis of cellular image data using a deep metric network
EP3570753A4 (en) 2017-02-23 2020-10-21 Google LLC METHOD AND SYSTEM TO AID IN PATHOLOGIST IDENTIFICATION OF TUMOR CELLS IN ENLARGED TISSUE IMAGES
US10360499B2 (en) 2017-02-28 2019-07-23 Anixa Diagnostics Corporation Methods for using artificial neural network analysis on flow cytometry data for cancer diagnosis
JP6979278B2 (ja) 2017-04-07 2021-12-08 株式会社日立ハイテク 画像診断支援装置及び画像診断支援システム、並びに画像診断支援方法
EP3616160A4 (en) 2017-04-25 2021-04-21 The University of Chicago CELL ANALYSIS
US10552663B2 (en) 2017-05-02 2020-02-04 Techcyte, Inc. Machine learning classification and training for digital microscopy cytology images
US11080855B1 (en) 2017-06-06 2021-08-03 Path AI, Inc. Systems and methods for predicting tissue characteristics for a pathology image using a statistical model
JP6729516B2 (ja) 2017-07-27 2020-07-22 トヨタ自動車株式会社 識別装置
EP3664705A4 (en) 2017-08-09 2021-09-29 Allen Institute IMAGE PROCESSING SYSTEMS, DEVICES AND METHODS FOR GENERATING AN IMAGE WITH PREDICTIVE MARKING
CN111164706B (zh) 2017-08-14 2024-01-16 普梭梅根公司 疾病相关的微生物组表征过程
WO2019039595A1 (ja) 2017-08-25 2019-02-28 学校法人東京医科大学 子宮頸部の細胞診カテゴリーの推定装置および推定方法
US10546387B2 (en) 2017-09-08 2020-01-28 Qualcomm Incorporated Pose determination with semantic segmentation
KR20190055610A (ko) 2017-11-15 2019-05-23 삼성전자주식회사 뉴럴 네트워크 모델들의 공용 연산 그룹을 단일 처리하는 뉴럴 네트워크 시스템, 이를 포함하는 애플리케이션 프로세서 및 뉴럴 네트워크 시스템의 동작방법
US11861475B2 (en) 2017-11-17 2024-01-02 Mayo Foundation For Medical Education And Research Methods for using machine learning and mechanistic models for biological feature mapping with multiparametric MRI
WO2019136253A1 (en) 2018-01-05 2019-07-11 Visiongate, Inc. Morphometric genotyping of cells using optical tomography for detecting tumor mutational burden
EP3732611A1 (en) 2018-01-11 2020-11-04 Google LLC Method for creating histopathological ground truth masks using slide restaining
US11138737B2 (en) * 2018-02-13 2021-10-05 Chung Yuan Christian University Method and apparatus for predicting cell reprogramming
US10836379B2 (en) 2018-03-23 2020-11-17 Sf Motors, Inc. Multi-network-based path generation for vehicle parking
CA3095030A1 (en) 2018-03-30 2019-10-03 Juno Diagnostics, Inc. Deep learning-based methods, devices, and systems for prenatal testing
US20210033599A1 (en) 2018-04-26 2021-02-04 Nec Corporation Information processing apparatus, control method, and program
JP2019195304A (ja) * 2018-05-10 2019-11-14 学校法人順天堂 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
US10657420B2 (en) 2018-07-17 2020-05-19 International Business Machines Corporation Modeling post-lithography stochastic critical dimension variation with multi-task neural networks
US20200152326A1 (en) 2018-11-09 2020-05-14 International Business Machines Corporation Blood pathology image analysis and diagnosis using machine learning and data analytics
US10769784B2 (en) 2018-12-21 2020-09-08 Metal Industries Research & Development Centre Image analyzing method and electrical device
JP7381003B2 (ja) * 2019-04-26 2023-11-15 学校法人順天堂 疾患解析を支援する方法、装置、及びコンピュータプログラム、並びにコンピュータアルゴリズムを訓練する方法、装置、及びプログラム
US11195060B2 (en) 2019-07-05 2021-12-07 Art Eye-D Associates Llc Visualization of subimage classifications

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044974A (ja) * 2007-08-16 2009-03-05 Univ Nagoya 細胞の品質を予測する予測モデルの構築法、予測モデルの構築用ブログラム、該プログラムを記録した記録媒体、予測モデルの構築用装置
JP2011229413A (ja) * 2010-04-23 2011-11-17 Nagoya Univ 細胞評価装置、インキュベータ、プログラム、および、培養方法
JP2011229412A (ja) * 2010-04-23 2011-11-17 Nagoya Univ 細胞評価装置、インキュベータ、プログラム、培養方法、手技評価装置、および、細胞評価モデル構築装置
US20140185906A1 (en) * 2011-09-16 2014-07-03 Changsha High-Tech Industrial Development Zone Ave Science & Technology Industry Co., Ltd. Device and Method for Erythrocyte Morphology Analysis
CN103745210A (zh) * 2014-01-28 2014-04-23 爱威科技股份有限公司 一种白细胞分类方法及装置
JP2017516992A (ja) * 2014-05-23 2017-06-22 ベンタナ メディカル システムズ, インコーポレイテッド 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法
JP2018185759A (ja) * 2017-04-27 2018-11-22 シスメックス株式会社 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
2017 ICIIS, 1570376781, PP. 1-6, JPN6022009440, ISSN: 0004903485 *
HUMAN CELL (2018) 31:87-93, PUBLISHED ONLINE: 13 DECEMBER 2017, JPN6022009441, ISSN: 0004903486 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021200977A1 (ja) * 2020-03-30 2021-10-07 学校法人順天堂 疾患鑑別支援方法、疾患鑑別支援装置、及び疾患鑑別支援コンピュータプログラム
JP2021108186A (ja) * 2020-06-30 2021-07-29 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像認識方法、装置、電子デバイス、記憶媒体、及びプログラム
WO2022004318A1 (ja) * 2020-07-02 2022-01-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7463512B2 (ja) 2020-07-02 2024-04-08 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
CN113192080A (zh) * 2021-04-27 2021-07-30 北京大学 一种基于边缘计算的便携式细胞成像与智能分析系统
WO2023075310A1 (ko) * 2021-10-25 2023-05-04 고려대학교 산학협력단 인공지능을 이용한 세포 판별 방법 및 장치

Also Published As

Publication number Publication date
EP3588368A2 (en) 2020-01-01
EP3588368A3 (en) 2020-04-29
US20190347467A1 (en) 2019-11-14
US20240062377A1 (en) 2024-02-22
US20210365668A1 (en) 2021-11-25
CN110472471A (zh) 2019-11-19
US11830188B2 (en) 2023-11-28
US11093729B2 (en) 2021-08-17
JP2023061956A (ja) 2023-05-02

Similar Documents

Publication Publication Date Title
JP2019195304A (ja) 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
VerMilyea et al. Development of an artificial intelligence-based assessment model for prediction of embryo viability using static images captured by optical light microscopy during IVF
US11842556B2 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
CN109791693B (zh) 用于提供可视化全切片图像分析的数字病理学系统及相关工作流程
US20200340909A1 (en) Method, apparatus, and computer program for supporting disease analysis, and method, apparatus, and program for training computer algorithm
CN111325103B (zh) 一种细胞标注系统和方法
JP4948647B2 (ja) 尿中粒子画像の領域分割方法及び装置
EP1978486A1 (en) Methods of chromogen separation-based image analysis
KR20140045923A (ko) 미생물 성장을 분석하는 방법 및 소프트웨어
EP3506165A1 (en) Using a first stain to train a model to predict the region stained by a second stain
US20110057946A1 (en) Image processing method, image processing apparatus, and computer-readable recording medium storing image processing program
Ferlaino et al. Towards deep cellular phenotyping in placental histology
CA3196713C (en) Critical component detection using deep learning and attention
CN110838094B (zh) 病理切片染色风格转换方法和电子设备
Mirroshandel et al. Automated morphology detection from human sperm images
US20190340415A1 (en) Automated system and method for creating and executing a scoring guide to assist in the analysis of tissue specimen
JP7393769B2 (ja) 生物学的サンプルの画像に対するコンピュータ実装プロセス
Draganova et al. Model of Software System for automatic corn kernels Fusarium (spp.) disease diagnostics
US11908130B2 (en) Apparatuses and methods for digital pathology
Shu et al. Biomarker detection in whole slide imaging based on statistical color models
Bhanumathi et al. Underwater Fish Species Classification Using Alexnet
US20240046670A1 (en) Method and system for analysing pathology image
Zimmermann et al. Image analysis for tissue phenomics
Seesawad et al. PseudoCell: Hard Negative Mining as Pseudo Labeling for Deep Learning-Based Centroblast Cell Detection
Nebe et al. Evaluation of computer-assisted digital microscopes for evaluation of blood films

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230124

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20230207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230308

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230314

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230519