JP2023513022A - 生体試料中のオブジェクトの体系的特性評価 - Google Patents

生体試料中のオブジェクトの体系的特性評価 Download PDF

Info

Publication number
JP2023513022A
JP2023513022A JP2022546073A JP2022546073A JP2023513022A JP 2023513022 A JP2023513022 A JP 2023513022A JP 2022546073 A JP2022546073 A JP 2022546073A JP 2022546073 A JP2022546073 A JP 2022546073A JP 2023513022 A JP2023513022 A JP 2023513022A
Authority
JP
Japan
Prior art keywords
objects
class
object detection
detection model
semantic segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022546073A
Other languages
English (en)
Inventor
トルード,ティボー
クジニー-デヴィ,フローラン
フェッツァーニ,リアド
スカルベール,マリン
リ,シューシャン
Original Assignee
ヴィタディーエックス インターナショナル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィタディーエックス インターナショナル filed Critical ヴィタディーエックス インターナショナル
Publication of JP2023513022A publication Critical patent/JP2023513022A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N2015/1006Investigating individual particles for cytology
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N2015/1486Counting the particles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Dispersion Chemistry (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

本発明は、スライド上に処理された尿試料から回収可能なオブジェクトを分類及び計数するための方法であって、以下の工程:スライド全体の少なくとも1つのデジタル化画像を受信する工程;スライド全体の画像のセグメンテーションによって結合成分を検出する工程;検出された結合成分を、分類器を用いて可算結合成分及び不可算結合成分に分類する工程;可算結合成分の場合には、オブジェクト検出モデルを用いて、各クラスのオブジェクト数を得る工程;不可算成分の場合には、セマンティックセグメンテーションモデルを用いて、各クラスのオブジェクト数を得る工程;セマンティックセグメンテーションモデル及びオブジェクト検出モデルから得られた各クラスのオブジェクト数を合計し、各クラスのオブジェクト数を出力する工程を含む方法に関する。【選択図】図1

Description

発明の分野
本発明は、特に泌尿器病態の検出のための生物学的分析の分野に関する。より特には、本発明は、対象の体液試料、特に尿試料中に見出すことができる少なくとも1つ、好ましくは複数のオブジェクトの特性評価に関する正確な情報を提供する方法に関する。
この発明は、好ましくは尿試料である体液試料中の関連オブジェクトを分析するための方法及びシステムに関する。本発明の方法及びシステムは、例えば、細胞又は細菌を含む少なくとも1つの試料中のオブジェクトを検出、識別及び/又は計数するのに有用であり得る。
この発明はまた、生体試料、特に尿試料中のオブジェクトの体系的な調査及び特性評価から生じる信頼できる情報の提示に関する。
発明の背景
試料分析は、対象の健康状態の概要を提供するための最も一般的な試験の1つである。試料中のある特徴的なオブジェクトの出現は、臨床的に有意であり、かつ/又は対象における病理学的状態を示すものであり得る。
尿試料は、細胞の集塊、凝集塊又はシート;血液細胞、例えば、赤血球(erythrocyte)又は赤血球(red blood cell(RBC));尿路上皮細胞、特に、非定型尿路上皮細胞;結晶;リンパ球、白血球(leukocyte)又は白血球(white blood cell(WBC));好中球、単球、好酸球;又は微生物、例えば、細菌などの様々なオブジェクトを含み得る。
尿沈渣分析を行う一般的な方法は、明視野光学技術を使用して、試料に存在する尿細胞を顕微鏡スライド上に堆積させ、次いで、スライドをデジタル化することである。しかし、スライド上に細胞を堆積させる際に注意を払ったにもかかわらず、細胞、集塊及び他の細胞スタックの不規則な層がスライド上に現れることがある。
この問題は従来技術で既に提起された。
従来技術の試料中の細胞分析の一例として、FR2996036は、生体組織中の細胞を同定する方法であって、各細胞が細胞膜で区切られた細胞質を含み、以下の工程:a)異なる強度の値の複数の画素を含む、同定される細胞を含む生体組織の切片の生デジタル画像を取得する工程;b)少なくとも1つの閾値画像を自動的に生成する工程;c)閾値画像において、同じ定義済みの強度値を有する複数の連続した画素から形成された表面を自動的に検索し、このように見出された細胞表面が細胞候補を構成する工程、を含む方法を報告している。本発明によれば、定義済みの強度値は、細胞質に対応する第1及び第2の強度値のことである。
しかしながら、この方法は、細胞の重なり合い、スタック、堆積及び/又は集塊を有する試料では正確ではない。
WO2015102948は、周囲光及びデフォーカスノイズの影響を除去した後、周辺領域の平均画素値と中央領域の平均画素値との差を計算することにより、尿形成要素の分類精度を向上させることを目的としている。
しかし、この技術は細胞集塊の処理には役立たない。
WO2015168365は、尿沈渣画像の処理対象のブロックを処理する方法であって、以下の工程:
-処理対象のブロック内の画素の色を、コードブック内のkc色の1つに近似させる工程(コードブックは、尿試料ブロックのセットで生成されたkc色のセットである);
-kc色の各色に当たる色近似結果の画素数の分布ヒストグラムを得る工程;
-出現頻度補正係数を用いて、分布ヒストグラムの各色に当たる色近似結果の画素数を補正する工程;
-分布ヒストグラムの各色に当たる色近似結果の補正された画素数を標準化する工程;及び標準化分布ヒストグラムをブロック処理の特徴セットの特徴として得て、処理対象のブロックを処理する工程
を含む方法を説明している。
この手法は、ブロックが十分に定義されている場合に特に有用であるが、画像がぼやけている場合、又は問題のブロックに完全に焦点が合っていない場合には、正確な結果が得られない場合がある。
さらに、この方法は、回転、スケーリング、平行移動、トリミング、ミラーリング、弾性変形のうちの少なくとも1つを含むデータ強化及び前処理の工程を必要とする。
結果的に、大規模な集団、特に年齢、喫煙習慣又は産業物質の曝露に関連する泌尿器病態を発症するリスクのある集団をスクリーニングするのに適する尿試料スクリーニングの方法を提案するために、明視野イメージングによって取得された重い画像に対処できる費用対効果が高く、単純で信頼性が高く、再現可能な方法及びシステムを見つける必要がある。
これは、本発明が尿試料のオブジェクトを特定して計数し、かつ瞬時に前記数を表示するために、デジタル化画像を計算するための費用対効果が高く、再現性があり、正確な手段を用いて、上記の満たされていないニーズを満たす方法に関する理由である。本発明はまた、多数の試料を次々に迅速に操作するプロセスも含む。
この発明は、スライド上に処理された尿試料から回収可能なオブジェクトを分類及び計数するための方法であって、以下の工程:
-スライド全体の少なくとも1つのデジタル化画像を受信する工程;
-スライド全体の画像のセグメンテーションによって結合成分を検出する工程;
-検出された結合成分を、分類器を用いて可算結合成分及び不可算結合成分に分類する工程;
-可算結合成分の場合:
・オブジェクトを検出し、検出された各オブジェクトの境界ボックス及び関連するクラスを含む出力を得るために、オブジェクト検出モデルに各可算結合成分を入力する工程;
・各クラスに関連する境界ボックスを計数し、各クラスのオブジェクト数を得る工程;
-不可算成分の場合:
・各不可算結合成分をセマンティックセグメンテーションモデルに入力し、全ての画素が定義済みの利用可能なクラスの中の1つのクラスに分類されるセグメンテーションマスクを出力として得る工程;
・各オブジェクトクラスについて、前記クラスに関連するセグメンテーションマスクの画素数として得られた、該クラスの総画素面積と、前記クラスのオブジェクトの平均面積との比率としてオブジェクト数を計数する工程;
その際、該セマンティックセグメンテーションモデル及び該オブジェクト検出モデルの前記クラスが同じであり、
-セマンティックセグメンテーションモデル及びオブジェクト検出モデルから得られた各クラスのオブジェクト数を合計する工程;
-各クラスのオブジェクト数を出力する工程
を含む方法に関する。
都合の良いことに、本発明の方法は、焦点の合っていない画像又はスライド上のオブジェクトの厚さのために、オブジェクトの境界が検出しにくい場合オブジェクト、実際、単一のオブジェクト又は重なり合ったオブジェクトが顕著な厚さを有する場合に、オブジェクトのいくつかの部分は、焦点が合わずに、画像がぼやける/ノイジーになり得る場合であっても、オブジェクトの正確な計数を可能にする。この方法は、不正確なセグメンテーションによる不正確さを大幅に低減する。
一実施形態では、セマンティックセグメンテーションモデルは、U-Netである。
一実施形態によれば、オブジェクト検出ニューラルネットワークは、Faster-RCNN、CenterNet、SOLO又はYOLOである。
一実施形態によれば、受信されたデジタル化画像は、明視野光学システムから生じる。
一実施形態によれば、該モデルは、ラベルされたデジタル化画像のデータセットを用いて訓練される。
一実施形態では、セマンティックセグメンテーションモデル及びオブジェクト検出モデルは、臨床医によってラベルされたデジタル化画像のデータセットを用いて訓練される。
一実施形態では、セマンティックセグメンテーションモデル及びオブジェクト検出モデルは、確率論的勾配降下訓練方法を用いて訓練される。確率論的勾配降下最適化法は、都合の良いことに、あらゆる最適化工程で計算時間を節約することを可能にする。
これは、実際の勾配(訓練データセット全体から計算される)を推定値(データのランダムに選択されたサブセットから計算される)に置き換えることからなる。これは、本発明におけるもののような大規模な機械学習問題の場合に非常に有効である。
一実施形態では、各クラスは、以下のリスト:
-白血球:好塩基球、好中球、マクロファージ、単球及び好酸球;
-赤血球;
-細菌;
-尿結晶;
-円柱類;
-健康で非定型の尿路上皮細胞;
-扁平上皮細胞;
-反応性尿路上皮細胞
-酵母
の中のオブジェクトの少なくとも1つに関連する。
一実施形態によれば、本方法はさらに、スライド全体の少なくとも1つの部分のデジタル化画像に沿った各クラスのオブジェクトの総数を表示する工程を含む。
一実施形態によれば、本方法はさらに、デジタル化画像の中のクラス内のオブジェクトの有無に関する情報を提供する少なくとも1つの文字列を表示する工程を含む。
一実施形態では、試料は、パパニコロウ(又はPap)染色剤又は当業者に公知の任意の他の多色性細胞学的染色剤によって着色される。
本発明はまた、スライド上に処理された尿試料から回収可能なオブジェクトを分類及び計数するためのシステムであって、
-複数のオブジェクトを含むスライド全体の少なくとも1つのデジタル化画像を受信するように適合させた少なくとも1つの入力;
-以下のように構成された少なくとも1つのプロセッサ:
・スライド全体の画像のセグメンテーションによって結合成分を検出する;
・検出された結合成分を、分類器を用いて可算結合成分と不可算結合成分に分類する;
・可算結合成分の場合:
i.オブジェクトを検出し、各オブジェクトについて1つの境界ボックス及び関連するクラスを出力するように構成されたオブジェクト検出モデルに各可算結合成分を入力する;
ii.各クラスに関連する境界ボックスを計数し、各クラスのオブジェクト数を得る;
・不可算成分の場合:
i.各不可算結合成分をセマンティックセグメンテーションモデルに入力し、全ての画素が定義済みの利用可能なクラスのうちの1つのクラスに分類されるセグメンテーションマスクを出力として得る;
ii.各クラスについて、前記クラスに関連するセグメンテーションマスクの画素数として得られた該クラスの総画素面積と、前記クラスのオブジェクトの平均面積との比率としてオブジェクト数を計数する;
・セマンティックセグメンテーションモデル及びオブジェクト検出モデルから得られた各クラスのオブジェクト数を合計する;
その際、前記セマンティックセグメンテーションモデルとオブジェクト検出モデルの前記クラスは同じである、
-各クラスのオブジェクト数を提供するように適合させた少なくとも1つの出力、
を含むシステムにも関する。
同等の方法で、該システムは、
-複数のオブジェクトを含むスライド全体の少なくとも1つのデジタル化画像を受信するように構成された取得モジュール;
-以下のように構成された計算モジュール:
・スライド全体の画像のセグメンテーションによって結合成分を検出する;
・検出された結合成分を、分類器を用いて可算結合成分と不可算結合成分に分類する;
・可算結合成分の場合:
■オブジェクトを検出し、各オブジェクトについて1つの境界ボックス及び関連するクラスを出力するように構成されたオブジェクト検出モデルに各可算結合成分を入力する;
■各クラスに関連する境界ボックスを計数し、各クラスのオブジェクト数を得る
・不可算結合成分の場合:
■各不可算結合成分をセマンティックセグメンテーションモデルに入力し、全ての画素が、定義済みの利用可能なクラスのうちの1つのクラスに分類されているセグメンテーションマスクを出力として得る;
■各クラスについて、前記クラスに関連するセグメンテーションマスクの画素数として得られた、該クラスの総画素面積と前記クラスのオブジェクトの平均面積との比率としてオブジェクト数を計数する;
その際、前記セマンティックセグメンテーションモデルと前記オブジェクト検出モデルの前記クラスが同じである、
-セマンティックセグメンテーションモデル及びオブジェクト検出モデルから得られた各クラスのオブジェクト数を合計する;
-各クラスのオブジェクト数を出力するように構成された出力モジュール、
を含み得る。
本発明はまた、尿試料から回収可能なオブジェクトを分類及び計数するためのコンピュータプログラム製品であって、プログラムがコンピュータによって実行されるときに、上記の実施形態のいずれか1つによる方法の工程をコンピュータに実行させる命令を含むコンピュータプログラム製品に関する。
本発明はまた、プログラムがコンピュータによって実行されるときに、上記の実施形態のいずれか1つによる方法の工程をコンピュータに実行させる命令を含むコンピュータ可読記憶媒体にも関する。
定義
本発明において、以下の用語は、以下の意味を有する:
・細胞についての「非定型」は、非病理学的状況において報告されていない細胞の少なくとも1つの特徴を有することを意味する。
・「非定型尿路上皮細胞」(AUC)は、尿細胞診報告様式パリシステム(TPSRUC)を参照して本明細書で定義される。
・「明視野光学システム」は、試料全体を均一に照らすことによって画像が生成され、その結果、明るく照らされた背景に対して、検体が暗い画像として見えるイメージング技術を指す。明視野イメージングは、試料の観察及び検査のための一般的なイメージング技術として使用される。
・「分類する」は、対象の試料中のオブジェクトを、例えば赤血球などの目的の異なるクラスに分類することを指す。
・「結合成分」は、全ての画素が類似の画素強度値を共有し、何らかの形で互いに結合されている1つのオブジェクト又はオブジェクトのグループを指す。結合成分の例を図2に示す。
・「計数する」とは、対象の試料中の関心のある各クラスのオブジェクト数を列挙することを指す。
・「可算結合成分」は、本発明の場合、成分のグループを指し、これらの成分は、訓練を受けた医師が各単一オブジェクトを識別することができ、したがって彼/彼女がグループに含まれるオブジェクト数を計数することができるグループとして識別するオブジェクト(すなわち、白血球、細胞、細菌など)と呼ばれる。一方、「不可算結合成分」は、訓練を受けた医師がオブジェクトのグループを識別するが、グループ内の単一のオブジェクトを識別することができない、可算結合成分に関して反対の状況を指す。可算成分と不可算成分の例を図2に提供する。結合成分の客観的尺度は、典型的には、訓練を受けた医師のパネルによって定義され、この尺度は、標準に類似しており、細胞学的画像分析の当業者によって受け入れられる。
・「データセット」は、データ駆動型の予測又は決定を行うために、機械学習(ML)の数学的モデルを構築するために使用されるデータの集合を指す。教師あり学習(すなわち、ラベルされた訓練データの形態で既知の入出力例から関数を推論する)では、3つのタイプのMLデータセット(MLセットとしても指定される)は、典型的には、3つのそれぞれの種類のタスク、すなわち訓練、すなわちパラメータのフィッティング、検証、すなわち、MLハイパーパラメータ(学習プロセスを制御するために使用されるパラメータである)のチューニング、及び試験、すなわち、数学的モデルを構築するために利用される訓練データセットとは無関係に、後者のモデルが満足のいく結果を提供することを確認することの専用である。
・「ニューラルネットワーク又は人工ニューラルネットワーク(ANN)」は、ノード(ニューロンと呼ばれる)と、重みによってモデル化されたニューロン間の結合を含むMLのカテゴリを指定する。各ニューロンについて、出力は、入力の関数又は活性化関数による入力のセットで与えられる。ニューロンは一般に、複数の層に組織化されるため、1層のニューロンは直前及び直後の層のニューロンにのみ結合する。
・「YOLO」すなわち「You Only Look Once」は、そのアーキテクチャが特にオブジェクト検出用に構成されている単一の畳み込みネットワークを指す。
・「SOLO」(場所によるオブジェクトのセグメント化(Segmenting Objects by Locations))は、自己組織化特徴マップ(SOFM)、主成分分析、及び多変量線形回帰を組み合わせて、堅牢で、安定であり、高品質の予測を与えるネットワークアーキテクチャを生成する人工ニューラルネットワーク(ANN)の一種を指す。
・「Faster R-CNN」:2段階のオブジェクト検出器のファミリーに属するオブジェクト検出モデルを指す。Faster R-CNNの2つの段階は、それぞれ2つのニューラルネットワークに対応する。第1のものは、領域提案ネットワーク(RPN)と呼ばれ、境界ボックス候補のセットを出力する。第2のものは、境界ボックスの座標を絞り込み、境界ボックスを定義済みのクラスに分類する。
・用語「プロセッサ」は、ソフトウェアを実行することができるハードウェアに限定されると解釈されるべきではなく、一般的な方法で、例えば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラマブルロジックデバイス(PLD)を含むことができる処理デバイスを指す。プロセッサはまた、コンピュータグラフィックス及び画像処理又は他の機能のために利用されるかどうかにかかわらず、1以上のグラフィックス処理ユニット(GPU)を包含し得る。さらに、関連する機能及び/又は結果として生じる機能を実行することを可能にする命令及び/又はデータは、例えば、集積回路、ハードディスク、CD(コンパクトディスク)、DVD(デジタル汎用ディスク)などの光ディスク、RAM(ランダムアクセスメモリ)又はROM(読み取り専用メモリ)などの任意のプロセッサ可読媒体に格納され得る。命令は、特にハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせに格納され得る。
・「セマンティックセグメンテーション」:画像の各画素を定義済みのクラスに個別に分類するように構成されたアルゴリズムを指す。
・用語「適合された」及び「構成された」は、材料又はソフトウェア手段(ファームウェアを含む)を介してもたらされるかどうかにかかわらず、本装置の初期構成、後の適応若しくは補完、又はそれらの任意の組み合わせを同様に広く包含するとして本開示で使用される。
図面の簡単な説明
本発明の特徴及び利点は、以下の説明に現れる。本発明に関して、装置及び方法の実現のいくつかの様式について説明する。
図1は、一実施形態による本発明の方法の工程を表すブロック図である。 図2は、結合成分を含むデジタルスライド画像全体の図と、結合成分が可算結合成分と不可算結合成分の間でどのように分類されるかの例示的な例を提供する。
詳細な説明
本発明は、生体試料、特にスライドに処理された尿試料をスクリーニングするための費用対効果の高いハイスループット方法に関する。より正確には、本発明の方法は、対象の生体試料中に存在するオブジェクトを識別及び計数することを目的とする。
尿試料は対象から得られる。試料はまた、血液、血漿、血清、リンパ液、腹水(ascetic fluid)、嚢胞液、尿、胆汁、乳頭滲出液、滑液、気管支肺胞洗浄液、喀痰、羊水、腹膜水、脳脊髄液、胸水、心膜液、精液、唾液、汗、糞便、便、及び肺胞マクロファージなどの別の体液であってよい。試料は、濃縮又は濃化されてよい。
一実施形態では、本発明の方法は、対象から試料を得ることを含まない。一実施形態では、対象の試料は、対象から予め得られた試料である。前記試料は、本発明の方法に従って使用される前に適切な条件で保存されてよい。
試料は、腫瘍様細胞を提示するか、若しくは尿路病態を発症するリスクのある健康な対象又は不健康な対象から収集され得る。本発明の方法は、多数の対象に適用されるように設計されている。
一実施形態では、試料をホモジナイズし、フィルター上に堆積させ、次いで、その中に細胞を沈着させるためにスライドガラスに接触させる。スライドの材料はガラスであることが好ましいが、例えばポリカーボネートなどの他の材料でもあり得る。材料は、単回使用材料であってよい。
スライド堆積物を、癌リスクの指標である細胞の形態学的変化を検出するためにパパニコロウ染色プロトコルに従って染色する。あるいは、異なる着色手段を一緒に使用してよい。
染色後、スライドを覆う。スライドは、例えばカバーガラス又はプラスチックフィルムで覆ってよい。
一実施形態によれば、尿試料のスライドの画像を、全スライドスキャナなどの明視野光学システムから得る。
走査工程については、取り付けたスライドを、例えば、Hamamatsu Nanozoomer-S60スライドスキャナなどの任意の適切な明視野光学システムを用いてデジタル化してよい。データ取得は、Hamamatsu Nanozoomer-S360スライドスキャナ又は3DHistechのP250又はP1000でも実現できる。
スライドのデジタル化画像は長方形であってよい。解析対象のデジタル化画像をトリミングして、各標的領域が解析に供される標的領域を定義してよい。感度の高い領域は、分析の精度を高めるために、標的領域内で分割することができる。
本明細書に開示される実施形態は、この明細書に記載されている様々な動作を含む。動作は、ハードウェア構成要素によって実行されてもよく、かつ/又は機械実行可能命令で具現化されてもよく、これは、命令でプログラムされた汎用又は特殊用途プロセッサに動作を実行させるために使用され得る。あるいは、動作は、ハードウェア、ソフトウェア、及び/又はファームウェアの組み合わせによって実行され得る。
本明細書に記載の1以上の動作の性能は、1以上のプロセッサ間で分散されてもよく、単一の機械内に存在するだけでなく、多数の機械に配置されてよい。場合によって、1以上のプロセッサ又はプロセッサ実装モジュールは、単一の地理的位置(例えば、家庭環境、オフィス環境、又はサーバファーム内)に配置され得る。他の実施形態では、1以上のプロセッサ又はプロセッサ実装モジュールは、多数の地理的位置に分散されてよい。
図1に示すように、一実施形態によれば、方法100の第1工程110は、スライド全体又はスライド全体の少なくとも1つの部分の少なくとも1つのデジタル化画像を受信することからなる。
一実施形態では、本方法はさらに、スライド全体又はスライド全体の少なくとも1つの部分の画像のセグメンテーションによる工程120結合成分で構成される。セグメンテーション法は、前景を背景から分離することを可能にする閾値ベースの方法であり得る。最前面の結合成分をセグメンテーションマスクから回収してよい。結合成分は、1つのオブジェクト又はオブジェクトのグループで構成される。
一実施形態では、検出された結合成分は、例えば、畳み込みニューラルネットワークなどの分類器を用いて、可算結合成分及び不可算結合成分に分類される(工程130)。可算結合成分は、それに含まれる各オブジェクトを人間が視覚的に特定できる結合成分である。逆に、不可算結合成分は、人間が視覚的に特定できないオブジェクトである。これらの可算及び不可算結合成分の例を図2に提供する。
一実施形態によれば、本発明の方法は、可算結合成分の場合、各可算結合成分をオブジェクト検出モデルに入力する工程140を含む。オブジェクト検出モデルは、可算結合成分で構成されるオブジェクトを検出し、各検出されたオブジェクトについて1つの境界ボックス及び関連するクラスを出力として得るように構成され、定義済みの利用可能なクラスの中からクラスが選択される。したがって、この工程は、オブジェクト検出モデルから検出された各オブジェクトについて境界ボックス及び1つの関連するクラスを出力することを含む。
一実施形態によれば、オブジェクト検出モデルは、Faster-RCNN、CenterNet、SOLO又はYOLOである。
Faster R-CNNでは、画像は畳み込みフィーチャマップを提供する畳み込みネットワークへの入力として提供される。Faster R-CNNは、2つのモジュールで構成されている。第1のモジュールは、領域を提案する深い完全畳み込みネットワークであり、第2のモジュールは、提案された領域を使用するFaster R-CNN検出器である。システム全体は、オブジェクト検出のための単一の統一されたネットワークである。「注意」メカニズムを有するニューラルネットワーク、領域提案を生成するためのRPNモジュール。Faster R-CNNとの主な違いは、後者が選択的検索を用いて領域提案を生成することである。RPNでは、領域提案を生成するための時間コストは、RPNがオブジェクト検出ネットワークと最も多くの計算を共有する場合、選択的検索よりもはるかに小さくなる。簡単に説明すると、RPNは領域ボックス(アンカーと呼ばれる)をランク付けし、オブジェクトを含む可能性が最も高いボックスを提案する。
他の2つのオブジェクト検出モデル(CenterNet、YOLO)とは異なり、Faster R-CNNは、境界ボックスが最初に提案され、次に精密化されることを意味する2段階のオブジェクト検出器である。1段階検出器では、境界ボックスは精密化されない。したがって、このモデルの性能は、通常、単段階オブジェクト検出器よりも優れている。
CenterNetは、各オブジェクトをキーポイントのペアではなくトリプレットとして検出するため、精度と再現率の両方が向上する。CenterNetは、提案の中央部分、すなわち、幾何学的中心に近い領域を1つの追加キーポイントで探索する。CenterNetのアーキテクチャは、カスケードコーナープーリング及びセンタープーリングを、それぞれ2つのコーナーヒートマップ及びセンターキーポイントヒートマップに適用する畳み込みバックボーンネットワークを含む。CornerNetと同様に、検出されたコーナーのペアと類似の埋め込みを用いて、潜在的な境界ボックスを検出する。次に、検出された中心キーポイントを用いて、最終的な境界ボックスを決定する。他のモデルに対するCenterNetの利点は、通常、実装が容易で、訓練が速く、推論時間中に高速であることである。
YOLOは、回帰及び分類を行うために、より少ないアンカーボックスを使用する(入力画像をS×Sグリッドに分割する)。より詳細には、YOLOはGoogleNetに「触発された」ネットワークである。それは、特徴抽出器として機能する24の畳み込み層、及び予測を行うための2つの完全結合層を有する。特徴抽出器のアーキテクチャをダークネットと呼ぶ。要約すると、入力画像は、形状S×Sの特徴マップを出力する特徴抽出器(ダークネット)に供給される。そのため、画像はS×Sセルのグリッドに分割される。特徴マップの各セルは、Kクラスに対する信頼度スコアとクラス確率でB境界ボックスを予測する2つの連続した完全結合層のブロックに供給される。信頼度スコアは、基本的に検出されたオブジェクトがグランドトゥルースオブジェクトとどの程度重複しているかを測定するIOU(intersection over union)メトリックの観点から与えられる。アルゴリズムが最小化する損失は、境界ボックスの位置(x、y)の予測、それらのサイズ(h、w)、前記予測の信頼度スコア(objスコア)及び予測クラス(クラス確率)を考慮に入れる。
一方、SOLOは、インスタンスの位置とサイズに応じてインスタンス内の各画素にカテゴリを割り当てる「インスタンスカテゴリ」を用いるため、インスタンスのセグメンテーションをシングルショット分類可解問題(single-shot classification-solvable problem)に変換する。都合の良いことに、SOLOは、強力な性能を備えたはるかにシンプルで柔軟なインスタンスセグメンテーションフレームワークを提供し、Mask R-CNNと同等の精度を達成し、精度は近のシングルショットインスタンスセグメンターを上回る。
YOLOとSOLOのよりシンプルなアーキテクチャは、訓練データセットに少量のデータしか利用できず、さらに、分析する各単一スライド上に数千のセルル(cellule)が存在する場合に重要なより速い推論を提供する医療分野での実装に特に都合がよい。
一実施形態によれば、本方法はさらに、各クラスのオブジェクトの総数を得るために、オブジェクト検出モデルの出力として得られた各クラスに関連する境界ボックスを計数する工程150を含む。
一実施形態によれば、本方法は、各不可算結合成分をセマンティックセグメンテーションモデルに入力し、全ての画素が定義済み利用可能なクラスのうちの1つのクラスに分類されるセグメンテーションマスクを出力として得る工程160を含む。場合によっては、オブジェクト間に深刻な重複がある場合、人間はオブジェクトを個別に識別できない。それゆえ、このような場合には、オブジェクト検出モデルは各個々のオブジェクトを検出できない。したがって、セグメンテーションモデルは、都合の良いことに、オブジェクトのおおよその数を計算することを可能にする。
一実施形態によれば、セマンティックセグメンテーションモデルはU-Netである。U-Netのアーキテクチャは、その名前を正当化する「U」のように見える。このアーキテクチャは、(1)収縮セクション、(2)ボトルネックセクション及び(3)拡張セクションの3つのセクションからなる。
収縮セクションは、いくつかの収縮ブロックで構成されている。各ブロックは、入力を受け取り、2つの3×3畳み込み層を適用し、その後に2×2マックスプーリングを適用する。各ブロックの後のカーネル又は特徴マップの数は2倍になり、その結果、アーキテクチャは複雑な構造を効果的に学習することができる。
ボトルネックは、収縮セクションと拡張セクションの間を仲介する。2つの3×3畳み込み層に続いて2×2アップサンプリング層を使用する。
収縮セクションと同様に、拡張セクションはいくつかの拡張ブロックからなる。各拡張ブロックの先頭で、対応する収縮ブロックの出力特徴マップと前の拡張ブロックの出力を結び付ける。次に、この結び付けられたブロックを、2つの3×3畳み込み層及び1つの2×2アップサンプリング層の中に通過させる。各拡大ブロックについて、第1の3×3畳み込み層の後に、特徴マップの数を2で除算する。
最後に、得られた特徴マップを、得られた特徴マップの数がクラスの数と等しい最後の1×1畳み込み層の中に通過させる。
一実施形態によれば、本方法は、セマンティックセグメンテーションモデルの各クラスについて、前記クラスに関連するセグメンテーションマスクの画素数として得られるクラスの総画素面積と、前記クラスのオブジェクトの平均面積との比率としてオブジェクト数を計数する工程170を含む。
一実施形態によれば、セマンティックセグメンテーションモデル及びオブジェクト検出モデルの定義済みクラスは同じである。
一実施形態によれば、セマンティックセグメンテーションモデル及びオブジェクト検出モデルは、ラベルされたデジタル化画像のデータセットを用いて訓練される。
一実施形態によれば、セマンティックセグメンテーションモデル及びオブジェクト検出モデルは、確率論的勾配降下訓練方法を用いて訓練される。
一実施形態によれば、各クラスは、以下のリスト:
-白血球:好塩基球、好中球、マクロファージ、単球及び好酸球;
-赤血球;
-細菌;
-尿結晶;
-円柱類;
-健康で非定型の尿路上皮細胞;
-扁平上皮細胞;
-反応性尿路上皮細胞、及び/又は
-酵母
の中のオブジェクトの少なくとも1つに関連する。
一実施形態によれば、本方法はさらに、スライド全体の少なくとも1つの部分のデジタル化画像に沿った各クラスのオブジェクトの総数を表示する工程を含む。この中で、ユーザは、都合の良いことに、本方法を用いて得られたオブジェクト数の結果並びにデジタル化画像を視覚化することができる。
一実施形態によれば、本方法はさらに、デジタル化画像の中のクラス内のオブジェクトの有無に関する情報を提供する少なくとも1つの文字列を表示する工程を含む。文字列は、デジタル化画像に沿った表示されてよい。
本発明はさらに、スライド上に処理された尿試料から回収可能なオブジェクトを分類及び計数するためのシステムに関する。以下では、モジュールは、材料、物理的に異なる成分ではなく、機能的な実体として理解されるべきである。その結果、それらは、同じ有形かつ具体的な成分にグループ化されるか、又はいくつかのそのような成分に分配されるものとして具現化することができる。また、これらの各モジュールはそれ自体、おそらく少なくとも2つの物理的成分間で共有されている。加えて、モジュールは、ハードウェア、ソフトウェア、ファームウェア、又はそれらの混合形態でも実装される。それらは、好ましくは、システムの少なくとも1つのプロセッサ内で具現化される。
本発明のシステムは、複数のオブジェクトを含むスライド全体の少なくとも1つのデジタル化画像を受信するように構成された取得モジュールを備えてもよい。取得モジュールは、スライド全体の少なくとも1つの画像を取得するように構成された明視野光学システムに接続されてよい。
一実施形態では、該システムは、
-スライド全体の画像のセグメンテーションによって結合成分を検出する;
-検出された結合成分を、分類器を用いて可算結合成分と不可算結合成分に分類する;
-可算結合成分の場合:
・オブジェクトを検出し、各オブジェクトについて1つの境界ボックス及び関連するクラスを出力するように構成されたオブジェクト検出モデルに各可算結合成分を入力する;
・各クラスに関連する境界ボックスを計数し、各クラスのオブジェクト数を得る;
-不可算成分の場合:
・各不可算結合成分をセマンティックセグメンテーションモデルに入力し、全ての画素が定義済みの利用可能なクラスのうちの1つのクラスに分類されるセグメンテーションマスクを出力として得る;
・各クラスについて、前記クラスに関連するセグメンテーションマスクの画素数として得られた該クラスの総画素面積と、前記クラスのオブジェクトの平均面積との比率としてオブジェクト数を計数する;
その際、セマンティックセグメンテーションモデルとオブジェクト検出モデルの定義済みクラスは同じである、
-セマンティックセグメンテーションモデル及びオブジェクト検出モデルから取得した各クラスのオブジェクト数を合計する
ように構成された計算モジュールを備える。
一実施形態によれば、該システムは、各クラスについてオブジェクト数を出力するように構成された出力モジュールを備える。
本発明はさらに、尿試料から回収可能なオブジェクトを分類及び計数するためのコンピュータプログラム製品を含み、該コンピュータプログラム製品は、プログラムがコンピュータによって実行されるときに、本明細書に記載の実施形態のいずれか1つによる方法の工程をコンピュータに実行させる命令を含む。
上記の方法を実行するコンピュータプログラム製品は、ハードウェア構成要素によって実行される動作を実行するための機械又は特殊目的コンピュータとして動作するようにプロセッサ又はコンピュータを個々に若しくは集合的に指示するか又は構成するための、コンピュータプログラム、コードセグメント、命令、又はそれらの任意の組み合わせとして記述され得る。一例では、該コンピュータプログラム製品は、コンパイラによって生成されるマシンコードなどの、プロセッサ又はコンピュータによって直接実行されるマシンコードを含む。別の例では、該コンピュータプログラム製品は、インタプリタを用いてプロセッサ又はコンピュータによって実行される高レベルのコードを含む。当業者プログラマは、図面に例示されるブロック図及びフローチャート、並びに上記の方法の動作を実行するためのアルゴリズムを開示する本明細書中の対応する説明に基づいて命令又はソフトウェアを容易に書くことができる。
本発明はさらに、プログラムがコンピュータによって実行されるときに、上記の実施形態のいずれか1つによる方法の工程をコンピュータに実行させる命令を含むコンピュータ可読可能記憶媒体を含む。
一実施形態によれば、コンピュータ可読記憶媒体は、非一時的コンピュータ可読記憶媒体である。
本実施形態の方法を実装するコンピュータプログラムは、一般に、限定されないが、SDカード、外部記憶装置、マイクロチップ、フラッシュメモリ装置、ポータブルハードドライブ及びソフトウェアウェブサイトなどの配布コンピュータ可読記憶媒体上でユーザに配布することができる。分配媒体から、コンピュータプログラムは、ハードディスク又は類似の中間記憶媒体にコピーされ得る。コンピュータプログラムは、それらの分配媒体又はそれらの中間記憶媒体のいずれかからコンピュータの実行メモリにコンピュータ命令をロードすることによって実行することができ、この発明の方法に従って作用するようにコンピュータを構成する。これらの動作は全て、コンピュータシステムの当業者に周知である。
ハードウェア構成要素を実装し、上記の方法を実行するプロセッサ若しくはコンピュータを制御する命令又はソフトウェア、並びに任意の関連データ、データファイル、及びデータ構造は、1以上の非一時的なコンピュータ可読記憶媒体の中若しくは上に記録、保存、又は固定される。非一時的コンピュータ可読可能記憶媒体の例には、プロセッサ又はコンピュータが命令を実行できるように、命令又はソフトウェア及び任意の関連データ、データファイル、及びデータ構造を非一時的方法で格納し、命令又はソフトウェア及び任意の関連データ、データファイル、及びデータ構造をプロセッサ又はコンピュータに提供することができる読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フラッシュメモリ、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、磁気テープ、フロッピーディスク、光磁気データ記憶装置、光データ記憶装置、ハードディスク、ソリッドステートディスク、及び当業者に公知の任意のデバイスが含まれる。一例では、命令及びソフトウェア及び任意の関連データ、データファイル、及びデータ構造がプロセッサ又はコンピュータによって分散形式で格納、アクセス、及び実行されるように、命令又はソフトウェア及び任意の関連データ、データファイル、及びデータ構造はネットワーク接続コンピュータシステム上に分散される。

Claims (15)

  1. スライド上に処理された尿試料から回収可能なオブジェクトを分類及び計数するための方法(100)であって、
    -前記スライド全体の少なくとも1つのデジタル化画像を受信する工程(110);
    -前記スライド全体の画像のセグメンテーションによって結合成分を検出する工程(120);
    -検出された結合成分を、分類器を用いて可算結合成分及び不可算結合成分に分類する工程(130);
    -可算結合成分の場合:
    ・オブジェクトを検出し、検出された各オブジェクトの境界ボックス及び関連するクラスを含む出力を得るために、オブジェクト検出モデルに各可算結合成分を入力する工程(140);
    ・各クラスに関連する境界ボックスを計数し、各クラスのオブジェクト数を得る工程(150);
    -不可算成分の場合:
    ・各不可算結合成分をセマンティックセグメンテーションモデルに入力し、全ての画素が定義済みの利用可能なクラスの中の1つのクラスに分類されるセグメンテーションマスクを出力として得る工程(160);
    ・各クラスについて、前記クラスに関連するセグメンテーションマスクの画素数として得られた前記クラスの総画素面積と、前記クラスのオブジェクトの平均面積との比率としてオブジェクト数を計数する工程(170);
    -前記セマンティックセグメンテーションモデル及び前記オブジェクト検出モデルから得られた各クラスのオブジェクト数を合計する工程;
    -各クラスのオブジェクト数を出力する工程
    を含み、前記セマンティックセグメンテーションモデル及び前記オブジェクト検出モデルの前記クラスが同じである方法。
  2. 前記セマンティックセグメンテーションモデルがU-Netである、請求項1に記載の方法。
  3. 前記オブジェクト検出モデルが、Faster R-CNN、CenterNet、SOLO又はYOLOである、請求項1又は2のいずれか一項に記載の方法。
  4. 前記受信されたデジタル化画像が明視野光学システムから生じる、請求項1~3のいずれか一項に記載の方法。
  5. 前記セマンティックセグメンテーションモデル及び前記オブジェクト検出モデルが、ラベルされたデジタル化画像のデータセットを用いて訓練される、請求項1~4のいずれか一項に記載の方法。
  6. 前記セマンティックセグメンテーションモデル及び前記オブジェクト検出モデルが確率論的勾配降下訓練方法を用いて訓練される、請求項1~5のいずれか一項に記載の方法。
  7. 前記セマンティックセグメンテーションモデル及び前記オブジェクト検出モデルの各クラスが、以下のリスト:
    -白血球:好塩基球、好中球、マクロファージ、単球及び好酸球;
    -赤血球;
    -細菌;
    -尿結晶;
    -円柱類;
    -健康で非定型の尿路上皮細胞;
    -扁平上皮細胞;
    -反応性尿路上皮細胞、及び/又は
    -酵母
    の中のオブジェクトの少なくとも1つに関連する、請求項1~6のいずれか一項に記載の方法。
  8. 前記スライド全体の少なくとも1つの部分のデジタル化画像に沿った各クラスのオブジェクトの総数を表示することをさらに含む、請求項1~7のいずれか一項に記載の方法。
  9. 前記デジタル化画像にクラス内のオブジェクトの有無に関する情報を提供する少なくとも1つの文字列を表示することをさらに含む、請求項1~8のいずれか一項に記載の方法。
  10. 前記試料がPap染色剤により着色されている、請求項1~9のいずれか一項に記載の方法。
  11. スライド上に処理された尿試料から回収可能なオブジェクトを分類及び計数するためのシステムであって、
    -複数のオブジェクトを含むスライド全体の少なくとも1つのデジタル化画像を受信するように適合させた少なくとも1つの入力;
    -以下のように構成された少なくとも1つのプロセッサ:
    ・前記スライド全体の画像のセグメンテーションによって結合成分を検出する;
    ・前記検出された結合成分を、分類器を用いて可算結合成分と不可算結合成分に分類する;
    ・可算結合成分の場合:
    i.オブジェクトを検出し、各オブジェクトについて1つの境界ボックス及び関連するクラスを出力するように構成されたオブジェクト検出モデルに各可算結合成分を入力する;
    ii.各クラスに関連する境界ボックスを計数し、各クラスのオブジェクト数を得る;
    ・不可算成分の場合:
    i.各不可算結合成分をセマンティックセグメンテーションモデルに入力し、全ての画素が定義済みの利用可能なクラスのうちの1つのクラスに分類されるセグメンテーションマスクを出力として得る;
    ii.各クラスについて、前記クラスに関連するセグメンテーションマスクの画素数として得られた前記クラスの総画素面積と、前記クラスのオブジェクトの平均面積との比率としてオブジェクト数を計数する;
    ・前記セマンティックセグメンテーションモデル及び前記オブジェクト検出モデルから得られた各クラスのオブジェクト数を合計する;
    その際、前記セマンティックセグメンテーションモデルと前記オブジェクト検出モデルの前記クラスは同じである、
    -各クラスにオブジェクト数を提供するように適合させた少なくとも1つの出力、
    を含むシステム。
  12. 前記オブジェクト検出モデルが、Faster R-CNN 、CenterNet、SOLO又はYOLOである、請求項11に記載のシステム。
  13. 前記セマンティックセグメンテーションモデル及び前記オブジェクト検出モデルが、ラベルされたデジタル化画像のデータセットを用いて訓練される、請求項11又は12のいずれかに記載のシステム。
  14. 尿試料から回収可能なオブジェクトを分類及び計数するためのコンピュータプログラム製品であって、前記プログラムがコンピュータによって実行されるときに、請求項1~10のいずれか一項に記載の方法を前記コンピュータに実行させる命令を含むコンピュータプログラム製品。
  15. 前記プログラムがコンピュータによって実行されるときに、請求項1~10のいずれか一項に記載の方法を前記コンピュータに実行させる命令を含むコンピュータ可読可能記憶媒体。
JP2022546073A 2020-01-30 2021-01-29 生体試料中のオブジェクトの体系的特性評価 Pending JP2023513022A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20305082 2020-01-30
EP20305082.8 2020-01-30
PCT/EP2021/052105 WO2021152089A1 (en) 2020-01-30 2021-01-29 Systematic characterization of objects in a biological sample

Publications (1)

Publication Number Publication Date
JP2023513022A true JP2023513022A (ja) 2023-03-30

Family

ID=69528727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022546073A Pending JP2023513022A (ja) 2020-01-30 2021-01-29 生体試料中のオブジェクトの体系的特性評価

Country Status (7)

Country Link
US (1) US20230066976A1 (ja)
EP (1) EP4097631A1 (ja)
JP (1) JP2023513022A (ja)
KR (1) KR20220133918A (ja)
CN (1) CN115210779A (ja)
CA (1) CA3166288A1 (ja)
WO (1) WO2021152089A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230056175A (ko) * 2021-10-20 2023-04-27 주식회사 뷰노 의료 영상 분석 방법
CN114047109B (zh) * 2022-01-11 2022-06-21 深圳市帝迈生物技术有限公司 一种样本分析仪及其计数方法
CN114049569B (zh) * 2022-01-13 2022-03-18 自然资源部第三地理信息制图院 一种深度学习模型性能评价方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108318409A (zh) * 2011-06-17 2018-07-24 罗氏血液诊断股份有限公司 用于样本显示与查看的系统和方法
FR2996036B1 (fr) 2012-09-25 2014-10-24 Ecole Norm Superieure Lyon Procede d'identification de cellules dans un tissu biologique
CN104751167A (zh) 2013-12-31 2015-07-01 西门子医疗保健诊断公司 尿液有形成分分类方法和装置
CN105096293B (zh) 2014-04-30 2018-12-07 西门子医疗保健诊断公司 用于处理尿液沉渣图像的待处理区块的方法和装置
US10552663B2 (en) * 2017-05-02 2020-02-04 Techcyte, Inc. Machine learning classification and training for digital microscopy cytology images

Also Published As

Publication number Publication date
WO2021152089A1 (en) 2021-08-05
US20230066976A1 (en) 2023-03-02
CN115210779A (zh) 2022-10-18
CA3166288A1 (en) 2021-08-05
EP4097631A1 (en) 2022-12-07
KR20220133918A (ko) 2022-10-05

Similar Documents

Publication Publication Date Title
US20230127698A1 (en) Automated stereology for determining tissue characteristics
US20210350176A1 (en) Multiple instance learner for prognostic tissue pattern identification
Dunn et al. DeepSynth: Three-dimensional nuclear segmentation of biological images using neural networks trained with synthetic data
JP7201681B2 (ja) 単一チャネル全細胞セグメンテーションのためのシステム及び方法
Ghosh et al. Blood smear analyzer for white blood cell counting: a hybrid microscopic image analyzing technique
Hegde et al. Feature extraction using traditional image processing and convolutional neural network methods to classify white blood cells: a study
JP2023513022A (ja) 生体試料中のオブジェクトの体系的特性評価
Hegde et al. Automated decision support system for detection of leukemia from peripheral blood smear images
Embleton et al. Automated counting of phytoplankton by pattern recognition: a comparison with a manual counting method
Wu et al. A hematologist-level deep learning algorithm (BMSNet) for assessing the morphologies of single nuclear balls in bone marrow smears: algorithm development
Di Ruberto et al. A leucocytes count system from blood smear images: Segmentation and counting of white blood cells based on learning by sampling
Shirazi et al. Extreme learning machine based microscopic red blood cells classification
Venerito et al. A convolutional neural network with transfer learning for automatic discrimination between low and high-grade synovitis: a pilot study
Ganapathy et al. CometQ: An automated tool for the detection and quantification of DNA damage using comet assay image analysis
Davidson et al. Automated detection and staging of malaria parasites from cytological smears using convolutional neural networks
Hegde et al. Image processing approach for detection of leukocytes in peripheral blood smears
Ciurte et al. Automatic detection of circulating tumor cells in darkfield microscopic images of unstained blood using boosting techniques
RU2732895C1 (ru) Метод для выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей
CN111815633A (zh) 医用图像诊断装置、图像处理装置和方法、判断单元以及存储介质
Simon et al. A deep learning approach for patch-based disease diagnosis from microscopic images
Wojciechowska et al. Early detection of liver fibrosis using graph convolutional networks
Scheurer et al. Semantic segmentation of histopathological slides for the classification of cutaneous lymphoma and eczema
Foucart et al. Artifact identification in digital pathology from weak and noisy supervision with deep residual networks
Dehkharghanian et al. Applied machine learning in hematopathology
Supriyanti et al. Contour detection of leukocyte cell nucleus using morphological image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240104