JP2021520959A - 生体組織のコンピュータ分類 - Google Patents

生体組織のコンピュータ分類 Download PDF

Info

Publication number
JP2021520959A
JP2021520959A JP2020568546A JP2020568546A JP2021520959A JP 2021520959 A JP2021520959 A JP 2021520959A JP 2020568546 A JP2020568546 A JP 2020568546A JP 2020568546 A JP2020568546 A JP 2020568546A JP 2021520959 A JP2021520959 A JP 2021520959A
Authority
JP
Japan
Prior art keywords
images
machine learning
learning algorithm
image
computing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020568546A
Other languages
English (en)
Other versions
JP6998474B2 (ja
Inventor
パパジャンナキス,エマヌエル
アトキンソン,アラステア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dysis Medical Ltd
Original Assignee
Dysis Medical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=63364499&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2021520959(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Dysis Medical Ltd filed Critical Dysis Medical Ltd
Publication of JP2021520959A publication Critical patent/JP2021520959A/ja
Application granted granted Critical
Publication of JP6998474B2 publication Critical patent/JP6998474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Abstract

生体組織が、コンピューティングシステムを使用して分類される。生体組織の検査領域の複数の画像を含む画像データが、コンピューティングシステムで受信される。複数の画像の各々は、組織の検査領域への病理鑑別剤の局所塗布が過渡的な光学的効果を引き起こす期間中、異なる時間に捕捉される。受信された画像データは、コンピューティングシステム上で動作する機械学習アルゴリズムへの入力として提供される。機械学習アルゴリズムは、組織の複数のセグメントの各々に複数の分類のうちの1つを割り当てるように構成される。

Description

開示の技術分野
本開示は、方法ならびに対応するコンピュータプログラムおよびコンピュータシステムを含む、コンピューティングシステムを用いた生体組織の分類に関する。
生体組織の検査および分類は、癌スクリーニング手順の一部である。例えば、子宮頸癌のスクリーニングの場合、子宮頸部を直接観察し、その1つまたは複数の画像を捕捉する膣鏡検査を行うことができる。これにより、子宮頸部内の病変を、それらのリスクに依って同定および分類することができ、その結果、適切な生検または治療を行うことができる。このような分類は、一般的に医療専門家によって行われる。
特によく機能する膣鏡検査技術が、国際特許公開第WO−01/72214号に記載されており、病理鑑別剤(特に希酢酸)が生体組織に塗布される。これは、過渡的な光学的効果、特に組織の白色化を引き起こし、これは、直接、および捕捉された画像においても見ることができる。さらに、1つまたは複数の捕捉された画像の過渡的解析および/またはスペクトル解析、特に拡散反射率の測定を実行することができ、そのようなデータは、医療専門家の解析を支援するために医療専門家に提供することができる。この技術を用いた膣鏡は、Dysis Medical Limitedによって販売されている。
コンピュータベースの人工知能は、磁気共鳴イメージング(MRI)および放射線画像などの多くの分野における医療分類に適用されてきた。人工知能技術を子宮頸部病変分類などの生体組織の分類に適用することも検討されている。An Observational Study of Deep Learning and Automated Evaluation of Cervical Images for Cancer Screening(癌スクリーニングのための子宮頸部画像のディープラーニングおよび自動評価の観察的研究), Hu et al., J Natl Cancer Inst 2019 (doi: 10.1093/jnci/djy225)では、ポイントオブケア子宮頸部スクリーニングのために前癌性および癌性病変を同定すべく、「子宮頸写真」(子宮頸部上皮に希酢酸を塗布してから約1分後に固定焦点のリングライトフィルムカメラで撮影された子宮頸部画像)の自動評価が検討されている。このアプローチでは、子宮頸写真は、ディープラーニングベースのアルゴリズム、具体的には、より高速の領域ベースの畳み込みニューラルネットワーク(Faster R-CNN)への入力として提供される。このアルゴリズムは、物体(子宮頸部)検出、特徴抽出(物体の特徴を計算する)、および(症例確率スコアを予測する)高グレードの子宮頸部新形成に対する陽性または陰性としての分類を実行する。この方法は、スクリーニング母集団で研究すると、0.91の曲線下面積(AUC)を達成し、これは、前癌または癌症例を同定する際に、同じデータセットの元の子宮頸写真解釈(0.69のAUC)よりも大きかった。
Multimodal Deep Learning for Cervical Dysplasia Diagnosis(子宮頸部異形成診断のためのマルチモーダルディープラーニング), Xu et al., Medical Image Computing and Computer-Assisted Intervention - MICCAI 2016. Lecture Notes in Computer Science, vol. 9901, Springer, Chamは、子宮頸部異形成の診断に対する機械学習の適用を検討している。このアプローチでは、子宮頸部上皮への5%酢酸の塗布後に捕捉された子宮頸部の画像が、ディープニューラルネットワークへの入力として提供される。さらに、このニューラルネットワークがマルチモーダル入力を有するように、被験者に関する他の医療検査の臨床結果および他のデータが入力として提供される。複数の畳み込みニューラルネットワーク層を含む構造が、画像特徴を学習するために使用され、異なるモダリティは、ジョイント全結合ニューラルネットワーク層を使用して組み合わされる。この技術は、90%の特異性で87.83%の感度を有する最終診断を与えると報告されている。
そのような技法は、特に子宮頸部スクリーニングが利用できない発展途上の世界において医療専門家に有用であり得るが、正確な生検配置のための疾患のマッピングおよびグレード付けなどの、人工知能からの、より臨床的に有用な出力の提供は、医療専門家が、正しく診断し、必要に応じて適切な治療またはフォローアップを提供する能力を改善するために、望ましい。
開示の概要
この背景に対して、本開示は、請求項1によるコンピューティングシステム、請求項27によるコンピュータプログラム、および請求項28によって規定されるコンピューティングシステムを用いた生体組織の分類のための方法を提供する。さらなる特徴は、従属請求項および本明細書に詳述される。
生体組織(特に、被験者の子宮頸部)の検査領域の複数の画像を含む画像データが、コンピューティングシステムで受信される。各画像は、組織の検査領域への病理鑑別剤の局所塗布が過渡的な光学的効果を引き起こす期間中、異なる時間に捕捉される。特に、病理鑑別剤は、過渡的な光学的効果が酢酸白化効果を含むように、酢酸(典型的には、酢酸を通常3〜5%に希釈する)を含むことができる(ただし、例えば分子診断を使用して、他の鑑別剤および/または光学的効果も可能であり得る)。検査領域は、画像捕捉期間中、広帯域(光学スペクトルの大部分またはすべてにわたる)または狭帯域(おそらくは紫外線および/または赤外線を含む1つのみまたは限られた範囲の色を規定する特定の波長の1つまたはある範囲に限定される)であり得る光放射に曝露され得る。したがって、薬剤の塗布後に(たとえば、所定のおよび/または規則的な間隔で)捕捉された画像は、過渡的な光学的効果の進行を示し得る。受信された画像データ(これは、以下で説明されるように、画像処理の対象となったかもしれない)は、(コンピューティングシステム上で動作する)機械学習アルゴリズムへの入力として提供される。機械学習アルゴリズムは、複数の分類のうちの1つを組織に割り当てる。また、子宮頸部は、例えば、1つまたは複数のマスク(例えば、形態の認識または特徴抽出によって規定される)の適用に基づいて、および/または組織にわたって適用される局所分類に基づいて、セグメント化されてもよい。したがって、組織は、特に子宮頸部の各セグメントに割り当てられた異なる分類で、組織の検査領域の別個の規定されたサブ領域に分類され得る。分類は、連続範囲上の値のスケール(0から1または0から100など)、または複数の疾患タグ(例えば、陰性対陽性または例えば、低リスク、中リスク、高リスク、の特定の疾患状態、例えば、CIN1、CIN2、CIN3、または非定型血管の存在、持続的もしくは密な酢酸白化などの鮮明な病変境界もしくは疾患など、1つまたは複数の形態の特性の存在)を含み得る別個の選択肢のセットによって規定され得る。
本明細書に開示されるアプローチでは、生体組織のインビボまたはインビトロでの自動分類を達成することができる。過渡的な光学的効果の進行にわたって撮影される複数の画像の使用は、既存の方法よりも分類の感度および/または特異性に有意な改善を有し得る。感度および特異性は、頸部異形成および/または頸部新形成を同定する能力を指し得る。したがって、感度は、頸部異形成および/または頸部新形成を示す組織を正確に同定する能力を指す。したがって、特異性は、頸部異形成および/または頸部新形成を示さない組織を正確に同定する能力を指す。適用前後関係に応じて、出力は、感度もしくは特異性を最大にすること、または一方もしくは両方に最適であり得る閾値で動作することに焦点を当てられ得る。分類は、被験者/組織全体に基づいて提示され得るが、本発明は、前癌性または癌性であることが疑われる組織の領域が同定されることを可能にする。これは、外科的切除を含む生検または治療を指示するのに有利であり得る。これらの部位は、同定を確認するために生検され得る。そのようなシステムの成功した実現例は、多くの場合または大部分の場合に生検の採取を希なものにし得る。例えば、患者は、そのような分類の出力に基づいて、慣例的なスクリーニングへの免除または治療のために直接方向付けられ得る。さらに、機械学習アルゴリズムの出力は、以下に考察されるように、既存のアプローチよりも臨床的に有用であり得る。本技法は、方法、コンピュータプログラム、プログラム可能なハードウェア、コンピュータシステムとして、および/または組織検査のためのシステム(膣鏡検査システムなど)において実現され得る。
例えば、組織の分類のために動作するコンピューティングシステムは、画像データを受信するための入力と、機械学習アルゴリズムを動作させるためのプロセッサとを含むことができる。実施形態では、それは、画像データが基づく光学画像(例えば、RAW画像)を捕捉するための画像収集モジュールをさらに含む。画像収集モジュールは、プロセッサから遠隔に配置され得る。いくつかの設計では、プロセッサは、各々が機械学習アルゴリズムの一部を(例えば分散方式で)動作させる複数の処理装置を含む。次いで、画像収集モジュールは、処理装置のうちの少なくとも1つから遠隔に配置され得る。本開示による可能な実現例(方法ステップもしくはプログラムステップおよび/または構造的特徴としてか)のいずれかに適用可能なアプローチを以下に論じる。
機械学習アルゴリズムへの入力として提供される画像データは、画像収集モジュール(これは、コンピュータシステムの一部を形成してもよいし、外部であってもよい)によって取得された、捕捉された光学画像、すなわちRAW画像から導出されてもよい。例えば、光学(RAW)画像は(例えば、それぞれの光学画像の合焦距離に基づいて)スケーリングされ得る。これは、1つの組織に対する複数の画像が、別の組織に対するのと同じスケールを有することを可能にし得る。各画像は、同一の画素構成(即ち、同一の画像サイズおよび形状)を有してもよい。複数の画像の整列は、光学画像に1つまたは複数の変換を適用することによって達成され得る。アーチファクトは、画像解析および/または処理によって光学画像から除去され得る。画像は、分解されるか、またはパッチ(例えば、画素の連続ブロック、好ましくは2次元ブロックである)に細分化され得、これは画像データを形成し得る。パッチは重なり合ってもよく、例えば、パッチサイズより小さいストライドで形成されたパッチであり得、解像度を増大させ得る。
機械学習アルゴリズムへの追加の入力は、局所的な色、勾配、およびテクスチャを記述する数学的関数に基づいて、調整された特徴を抽出するために複数の画像の各々を処理することに基づき得るが、他の特性も想定され得る。これは、画素のブロック(例えば、8×8、16×16、32×32画素もしくは他のサイズの正方形のブロック、長方形のブロックまたは別の形状のブロック)のパッチとして規定される画像のサブ部分に対して別途行われてもよい。各画像は、4、8、16、32画素(他のサイズも可能である)であり得る、間にストライドを有するいくつかのパッチに分解され得る。上述したように、パッチは、機械学習アルゴリズムへの入力として提供される画像データとして提供されてもよい。
各画素に対するそれぞれの解析指標を含むマップデータは、コンピュータシステムにおいて取得されてもよい。解析指標は、例えば、複数の画像にわたる画素の最大強度;画素の最大強度に達する時間;および複数の画像にわたる画素の強度の合計(これは、例えば、画像捕捉の時間に対する強度の曲線下面積を提供するために、重み付けされた合計を含み得る)のうちの1つまたは複数に基づいて、複数の画像から導出される。これらのパラメータの各々は、所定のスペクトル帯域幅に制限されてもよく、および/または(同じタイプもしくは異なるタイプの)複数のそのようなパラメータが、各々、異なるスペクトル帯域幅に対して使用されてもよい。複数の画像にわたる同じ画素についてのデータを曲線に当てはめることができ、この曲線を使用してパラメータを得ることができる。これは、曲線下面積(積分)、最大強度までの曲線下面積(「最大への面積」)、最大強度までの曲線の(当てはめられた、または平均)傾き、最大強度後の曲線の(当てはめられた、または平均)傾きのうちの1つまたは複数から選択される有用なパラメータを生じる。本発明で有用な具体的なパラメータはW02008/001037で論じられており、その全体をここに引用により援用する。解析指標を確立するために、(異なるタイプおよび/または異なるスペクトル帯域幅の)複数のパラメータの重み付けされた組み合わせが使用され得る。解析指数は拡散反射率の尺度を表し得る。有利なことに、マップデータは、機械学習アルゴリズムへのさらなる入力として、例えばさらなる画像入力として提供されてもよい。
機械学習アルゴリズムは、有利なことに、ニューラルネットワーク、より好ましくは(2つ以上の隠れ層を含む)ディープニューラルネットワークを含むが、浅いニューラルネットワークを使用する実現例も考慮され得る。ディープニューラルネットワークは、任意選択で、畳み込みニューラルネットワーク;全結合ニューラルネットワーク;および再帰型ニューラルネットワークの1つまたは複数を含むが、他の種類のネットワークも考慮され得る。ディープニューラルネットワークは、1つまたは複数の畳み込みニューラルネットワーク層を含むことができる。機械学習アルゴリズムは、トレーニングおよびテストのための入力として画像データおよび非画像データを受信することができるという点で、マルチモーダルであることが好ましい。
実施形態では、画像は、1つもしくは複数の抽出された特徴および/または少なくとも1つの形態学的特性、たとえば非定型血管、モザイク現象、および小斑点のうちの1つもしくは複数を識別および/または定量化するために処理される。1つもしくは複数の抽出された特徴および/または少なくとも1つの形態学的特性は、機械学習アルゴリズムへの追加の入力として提供され得る。あまり好ましくない手法では、これは、画像を(1つもしくは複数の抽出された特徴および/または少なくとも1つの形態学的特性に基づいて)パッチに分割することを可能にし得る。
1つまたは複数の被験者特性(各々、生体組織が由来する被験者に関連する)が、機械学習アルゴリズムへの別の入力として提供されてもよい。例えば、被験者の特性は、被験者リスク因子および/または被験者臨床検査結果を含むことができる。被験者リスク因子は、被験者の年齢;被験者の喫煙者ステータス;HPVに対するワクチン接種ステータス;性的パートナーの数;コンドームの使用;および被験者の出産経歴のうちの1つまたは複数を含み得る。被験者臨床検査結果は、以前の細胞診結果;以前のヒトパピローマウイルス(HPV)検査結果;以前のHPVタイピング検査結果;以前の子宮頸部治療情報;および以前の子宮頸癌または前癌のスクリーニングの履歴のうちの1つまたは複数を含み得る。
有利なことに、機械学習アルゴリズムは、複数の分類のうちの1つを組織の1つまたは複数のセグメントの各々に割り当てる。1つまたは複数のセグメントは、例えば個々の関心領域または病変を同定するために機械学習アルゴリズムを使用して画像データから識別することができる。いくつかの実施形態では、子宮頸部に対応する画像の一部分が識別されてもよく、これにより、好適なセグメントを決定することができる。例えば、分類は、診断タグの形式をとることができる。別の選択肢では、分類は、(有利なことに複数の画像に基づく出力画像である)組織の画像の「ヒートマップ」の形式であってもよく、各画素の強度および/または色は、その画素の分類、好ましくはその画素の確率的分類を示す。別の選択肢では、分類出力は、リスクタグの形式とすることができ、それによって、組織領域は、無リスク、低リスク、または高リスクとして(例えば、バウンディングボックスによって)強調表示される。任意選択で、組織に対する全体的な分類も割り当てられ得る。これは、セグメントに割り当てられた分類、または(別個の)並列機械学習モデルの結果に基づいてもよい。
機械学習アルゴリズムは、有利なことに、複数の他の生体組織の各々について、それぞれの複数の画像およびそれぞれの割り当てられた分類(または適用可能であれば複数の分類)に基づいてトレーニングされる。他の生体組織の数は多くてもよく、例えば少なくとも500,1000,2000または5000であってもよい。割り当てられた分類は、各組織の特定の領域(または複数の領域のグループ)が組織病理読み取り値によって特徴付けられるようなものであり得る。
機械学習アルゴリズムはまた、(Lifelong Learning with Dynamically Expandable Networks(動的に拡張可能なネットワークによる生涯学習), Yoon et al, ICLR 2018に記載されているような)移転学習および選択的再トレーニングなどの方法を使用して、(医療専門家によって、例えば組織学的もしくは主観的評価での生検または切除治療から提供されるような)組織に対するユーザ決定分類またはデータベース分類を機械学習アルゴリズム(および/または第2のコンピュータシステム上で動作する機械学習アルゴリズムの、あるバージョン)に提供することによって、継続的および/または動的にトレーニングされ得る(増分学習)。機械学習アルゴリズムが分散して提供される場合、第1の部分は画像収集モジュールにローカルに提供されてもよく、第2の部分はより遠隔で提供されてもよい。両方の部分とも、分類を割り当てることができる。連続的(動的)トレーニングは、特にバッチで、第2の部分にのみ適用されてもよく、複数の異なる第1の部分からのデータを組み込んでもよい。第1の部分は固定アルゴリズムであってもよく、(間隔をあけて、例えば、複数の分類の後、または特定の長さの時間後に)更新されてもよい。
本発明は、いくつかの方法で実施することができ、好適な実施形態は、例としてのみ、添付の図面を参照して説明される。
本開示によるコンピューティングシステムの概略図である。 本開示によるプロセスを概略的に示す。 本開示による実験システムのための方法を示すフローチャートを概略的に示す。 公知のランダムフォレスト分類モデルを概略的に示す。 公知の人工ニューラルネットワークアーキテクチャを概略的に示す。 公知のロングソートタームメモリアーキテクチャを概略的に示す。 既存の方法(図7A)によって処理された第1の例示的生体組織のヒートマップを示す。 図4の方法(図7B)に従って処理された第1の例示的生体組織のヒートマップを示す。 図5の方法(図7C)に従って処理された第1の例示的生体組織のヒートマップを示す。 図6の方法(図7D)に従って処理された第1の例示的生体組織のヒートマップを示す。 既存の方法(図8A)によって処理される、第2の例示的生体組織のヒートマップを示す。 図4(図8B)の方法論に従って処理される、第2の例示的生体組織のヒートマップを示す。 図5(図8C)の方法論に従って処理される、第2の例示的生体組織のヒートマップを示す。 図6(図8D)の方法論に従って処理される、第2の例示的生体組織のヒートマップを示す。
好ましい実施形態の詳細な説明
まず図1を参照すると、本開示によるコンピューティングシステムの概略図が示されている。コンピューティングシステムは、画像収集モジュール10;ローカルプロセッサ15;メインサーバ20;素性データベース30;撮像データベース40を含む。ローカルインターフェース12は、画像収集モジュール10をローカルプロセッサ15に結合する。処理インターフェース22は、ローカルプロセッサ15をメインサーバ20とを結合する。第1の素性インターフェース32は素性データベース30をローカルプロセッサ15に結合し、第2の素性インターフェース34は素性データベース30をメインサーバ20に結合する。第1の画像データインターフェース42は、撮像データベース40をローカルプロセッサ15に結合し、第2の画像データインターフェース44は、撮像データベース40をメインサーバ20に結合する。図1のコンピューティングシステムは、例えば、光学システムおよび/または電子制御システムの一部であるコンピュータとは別個であり得る部分を組み入れることに留意されたい。しかしながら、これらはすべて、本開示の目的のためにコンピューティングシステムの一部と見なされる。
画像収集モジュール10は、検査領域、特に子宮頸部の光学画像を捕捉して収集するための膣鏡撮像ユニットである。本発明の主な実施形態は、膣鏡システムに関し、そのようなシステムに適用可能な有意かつ明確な利点が存在するが、本明細書で説明される実現例は、生体組織の検査および/または撮像のための他のタイプのシステムに使用され得ることが理解されるであろう。画像収集モジュール10は、ローカルプロセッサ15によって制御され、ローカルプロセッサ15は、例えば、制御および/またはディスプレイを含むユーザインターフェースを含み得る。素性データベース30は、患者素性データを保存するために使用される。検査中、ローカルプロセッサは、第1の素性インターフェース32を使用して素性データベース30とインターフェースして、検査されている患者の素性データを検索することができる。検査中に収集された画像は、第1の画像データインターフェース42を介して撮像データベース40に格納される。患者識別子は、素性データベース30に記憶される情報と相互参照することを可能にするためにパテント画像とともに記憶されてもよい。
検査プロセスの一部として、希酢酸が子宮頸部に局所的に塗布され、酢酸白化効果を引き起こす。子宮頸部の画像は、酢酸白化のプロセスの間に撮影される。画像捕捉は、希酢酸の塗布後に開始され、さらに、(参照画像を提供するために)塗布前および塗布時に開始されてもよい。子宮頸部を含む標的領域または検査領域が照明される。照明の特性は、典型的には、ビーム特性、色プロファイルおよび強度に関して標準化ならびに定量化される。子宮頸部上皮の光学特性の変化を定量化する目的で、子宮頸部の一連の光学画像を経時的に捕捉する。典型的には、画像は、希釈酢酸が塗布される時間に対して所定の時間で撮影される。所定の時間は、一定の間隔であってもよく、または、最初はより頻繁で、その後は、より頻繁でなくてもよい。これらの画像は、上述したように、撮像データベース40に保存される。画像は、離散的な画像の形式で、および/もしくはビデオフォーマットもしくはストリームとして、捕捉ならびに/または保存されてもよく、任意選択で、(1つまたは複数の画面を有する)ローカルプロセッサ15のユーザインターフェースを使用して表示され、これは、オペレータが検査も実行することを可能にし得る。画像収集モジュールは、標準化され測定可能な特性(例えば、視野および/または色プロファイルおよび/または光強度に対する応答)を有するように較正される。各画像の合焦距離は既知であり、保存される。光学画像は、広い周波数スペクトルまたは狭い周波数スペクトル(例えば、1つまたは複数の特定の光学周波数帯域に限定され、それらの各々は、特定の色または色のグループのような、全光学スペクトルより小さい)を捕捉することができる。
「RAW」光学画像(本明細書において「光学画像」という用語は、典型的には、画像処理および/もしくは解析の完了前のRAW画像またはそのような画像を指す)の処理は、ローカルプロセッサ15および/またはメインサーバ20において、例えば画像解析サブシステムの形式で行われてもよい。処理の1つの形式は、画像のサイズを標準化することである。固定焦点距離光学系の場合、これは、各光学画像の合焦距離を参照して達成され得る。典型的には、同じ検査領域の各光学画像の合焦距離は、(特に、国際特許公開第WO−01/72214号に記載されているような膣鏡装置を使用する場合、)同じであり、組織と装置の光学ヘッドとの間の相対位置は、複数の画像の捕捉の間、ほぼ一定のままである。光学画像のそれぞれの合焦距離を使用して、画像は、(各画素が標準的な物理的長さに対応するように)標準サイズにスケーリングされ得る。これにより、異なる組織について撮影した画像の比較が可能となる。しかしながら、組織と装置の光学ヘッドとの間の相対位置が変動し得る、あまり有利ではない膣鏡装置が使用される場合、複数の画像は、各々、それらのサイズを標準化するようスケーリングされてもよい。
画像をサイズ決定するための典型的な解像度は1024×768または2048×1536であるが、他の解像度も可能である。別の処理形式は、子宮頸部などの、画像に示される特定の特徴を参照する画像の整列である。そのような整列の目的は、光学画像の捕捉中の変位および収縮などの自然な動きを補償することである。そのような整列は、画像スタックを通して特徴の整列を達成するよう、(並進、回転、拡大、または変形のためになど)変換パラメータを決定するために、画像の各々における1つまたは複数の特定の特徴の識別、および特徴識別に基づく画像の比較によって達成され得る。次いで、標準的な画像処理技術を使用して、決定された変換パラメータに基づいて変換を実現することができる。さらなる画像処理の形式は、RAW光学画像または後処理された画像を処理して背景(関心領域)に対する子宮頸部の領域を識別するアルゴリズムを含み得る。反射などの画像上に共存し得るアーチファクトは、別の処理形式で識別および除去され得る。パターン認識により、さらに、非定型血管、モザイク現象、および小斑点のうちの1つまたは複数などの形態学的特性を識別することができる。典型的には、すべての形式の画像処理形式が使用されるが、一部の実施形態では、サブセットだけが適用されてもよい。さらに、異なる形式の処理がシステムの異なる部分において実行されてもよい。処理された画像は、高品質JPEGまたはPNGフォーマットおよびRGBカラーモードである(が、異なるフォーマットが受け入れられてもよい)。品質メトリックを用いて、グレアまたは他のアーチファクトおよび非合焦画像を示す領域など、画像に関する問題の識別を可能にしてもよい。これは、それらを任意の解析からの排除することおよび/またはユーザにフィードバックを提供することを可能にし得る。
近年、人工知能(AI)は、医療および健康関連の用途を含む様々な人間の活動範囲で実施されることが証明された方法として出現した。科学団体にわたって開発された高度なアルゴリズムは、より正確かつ効率的なプロセスを約束する。医療画像を処理するためのAIの適用、特に、酢酸白化プロセスを適用した子宮頸部の画像を用いたAIの適用が、既に検討されている。現在、酢酸白化プロセス中の子宮頸部の複数の画像の適用(例えば収集および解析)は、AIの性能を著しく改善し得ることが認識されている。これは、酢酸白化効果のような過渡的な光学的効果において、その効果は、プロセスの終わりだけでなく、プロセス自体の間においても異なる可能性があるという驚くべき認識のためであろう。プロセスの1つの時点だけを観察することは、生体組織、特にこの場合では子宮頸部に関するなんらかの情報を提供する。しかしながら、プロセスは子宮頸部全体にわたって均一ではないかもしれず、プロセス全体を観察することは、生体組織についての光学的効果およびそれらの意味を正確に分類するのに特に有用であり得る有意な追加情報を提供し得る。プロセスの複数の画像を提供されたAIは、それによって、膣鏡法が、頸部新形成について疑わしい領域を同定および/または特徴付けることを可能にし得る。
図1のシステムにおけるAIは、ローカルプロセッサ15とメインサーバ20との両方に設けられる。双方のシステムは、酢酸白化プロセスの間に捕捉され、撮像データベース40に保存された子宮頸部の複数の画像にアクセスすることができる。ローカルプロセッサは、固定AIアルゴリズムを使用し、これは、画像に基づく子宮頸部の即時分類を可能にする。メインサーバ20は、より定期的に、好ましくは結果のバッチで更新されるAIアルゴリズム(換言すれば、アルゴリズムは、データのバッチから連続的かつ動的に学習している)を使用し、より好ましくない場合では、新たな検査ごとに更新されてもよい。これを達成するために、メインサーバ20内のAIアルゴリズムは、固定AIと比較して異なる構造および/またはパラメータ化を有することができ、この差は、メインサーバ20内のAIアルゴリズムにさらなるトレーニングが提供されるにつれて、時間とともに増加し得る。ローカルプロセッサ15は、固定AIアルゴリズムを使用し、これは、間隔ごとに、好ましくはメインサーバにおいてトレーニングされたAIアルゴリズムを使用して、特に定常状態に発達すると、更新されることができる。固定AIアルゴリズムは、メインサーバ20上で動作するAIアルゴリズムよりも高速な結果を提供することができる。メインサーバ20は、クラウドベースであってもよく、したがって、複数の遠隔デバイスから子宮頸部画像データセットを収集し、解析することができる。したがって、トレーニングセットは大きく、例えば、人口統計学的変化またはスクリーニングプログラムにおける変化から生じる差異を捕捉することができる。
AIは、ローカルプロセッサ15および/またはメインサーバ20においてソフトウェアモジュールとして実現されてもよい。このAIは機械学習アルゴリズムを含む。典型的には、これはニューラルネットワークを使用し、ディープニューラルネットワーク(2つ以上の隠れ層を含む)であり得る。より具体的には、全結合ニューラルネットワーク(fcNN)、再帰型ニューラルネットワーク(RNN)もしくは畳み込みニューラルネットワーク(CNN)、またはこれらもしくは他の種類のニューラルネットワークのアンサンブルスキームでの組み合わせが使用され得る。最も基本的な実施形態では、AIは、以下で論じるように、酢酸白化効果の間に捕捉された複数の画像からのデータが与えられる。しかしながら、追加のデータもAIに提供されることが好ましい。その場合、AIは、画像データおよび非画像データを組み合わせることができるマルチモーダルニューラルネットワークを含むことができる。
AIに提供される画像は、光学系によって捕捉される時系列の「RAW」画像とすることができる。しかしながら、画像は、より典型的には、「RAW」光学画像の処理後に提供され、特に、ソフトウェアアルゴリズムによるスケーリングおよび/もしくは整列に続いて、ならびに/または子宮頸部識別、アーチファクト除去もしくはパターン認識の1つもしくは複数についての処理後に、提供される。いくつかの実現例では、RAW画像および後処理された画像の両方を入力として提供することができる。捕捉された画像のセット全体、またはその画像セットのサブセット(いずれの場合においても、さらなる処理を伴うかまたは伴わない)を、AIへの入力として提供してもよい。例えば、RAW画像または後処理された画像は、パッチに細分されてもよく、それらは画像データとして提供されてもよい。提供されるパッチのサイズおよび/または数は、画像間で異なり得る。本明細書で説明される特徴抽出および/または他の処理は、画像全体ではなく、パッチに適用されてもよい。
AIへの1つの追加入力は、画像データのさらなるデータ処理(典型的には、特に同じスケーリングおよび整列を達成するために、「RAW」光学画像の後処理)に基づくことができる。このさらなるデータ処理は、画像内の拡散反射率特性を測定するために使用されてもよく、ローカルプロセッサ15および/またはメインサーバ20において実行されてもよい。まず、画素値(強度など)が、整列された画像から抽出され、画像が捕捉された時間(これは絶対時間でもよく、または希酢酸が局所的に塗布された時間に対するものであってもよい)に従って参照され得る。次いで、時間分解された画素値から、最大強度、時間対最大強度、および時間に対する画素値の曲線下面積(すなわち、時間に対する画素値の積分)のような異なるパラメータを計算する。これらのパラメータは、1つもしくは複数のスペクトル帯域において、および/または画像画素のすべてもしくはサブサンプルについて、計算され得る。パラメータは、捕捉された時間分解された画素値に直接基づいてもよいが、代わりに、時間分解された画素値から計算された中間値を使用して計算されてもよい。例えば、中間値は、抽出された時間分解された画素値を数学的関数(例えば、一次関数、曲線、または指数関数)に当てはめることによって決定され得る。次いで、この関数の係数を使用して、最大強度、時間対最大強度、および時間曲線に対する画素値の下の面積などの、異なるパラメータを計算することができる。そのようなパラメータは、拡散反射率のレベルを表し得る、AIへの特定の入力として使用され得る。別のアプローチでは、パラメータは、例えば、単一のパラメータまたはパラメータの重み付けされた組み合わせから、画素当たりの単一の数値的指標値を計算するために使用され得る。次いで、画素当たりの単一の数値的指標値を、AIへの入力として提供することができる。代替的に、擬似カラースケールからの色を、各画素に、その指標値に基づいて割り当ててもよく、対応する擬似色を子宮頸部画像の各画素にわたってプロットすることによって、パラメトリック擬似カラーマップを生成してもよい。次いで、このパラメトリック擬似カラーマップを、AIへの入力として提供してもよい。
AIへの1つの追加入力は、画像データのさらなるデータ処理(典型的には、特に同じスケーリングおよび整列を達成するために、「RAW」光学画像の後処理)に基づくことができる。これは、8×8または16×16または32×32画素のパッチ(他の形状および/またはサイズのパッチも可能である)として規定され得る画像のサブ部分に対して別途行われ得る。各画像は、間にストライドを有する、4、8、16、32個の画素(他のサイズも可能である)であり得る、いくつかのパッチに分解され得る。このようにして、各パッチは、その近隣パッチと部分的に重なり合ってもよく、多数のパッチを各画像または画像の各部分から抽出することができる。このさらなるデータ処理は、局所的な色、勾配、およびテクスチャを記述する数学的関数(他のタイプの関数も可能である)に基づいて、調整された特徴または手作業による特徴を抽出するために使用され得る。次いで、これらの特徴は、AIへの入力として提供され得る。
他の形態の情報が、例えば、素性データベース30に格納された情報を使用して、AIへの1つまたは複数の追加入力として提供されてもよい。そのような情報は、患者の人口統計;患者リスク因子;以前の医療履歴情報;および臨床検査結果うちの1つまたは複数を含み得る。患者の人口統計は、例えば、検査時の患者の年齢(または年齢が予め規定された閾値を超えること)を含み得る。患者リスク因子は、患者の喫煙者ステータス(例えば、非喫煙者、常習喫煙者、非常習喫煙者、またはかつて喫煙者であったなど);患者の性的ステータスおよび/または履歴;性交中のコンドームの使用(常に、時々、または決して使用しないなど);HPVに対するワクチン接種のステータス;ならびに患者の出産経歴(出産の有無および/または出産数に関して)を含み得る。患者の臨床検査結果は、以前の細胞診結果;以前のHPV検査結果;以前のHPVタイピング検査結果;以前の子宮頸部治療情報;ならびに以前の子宮頸癌または前癌のスクリーニングおよび/または診断の履歴の少なくとも1つまたはこれらの組み合わせを含み得る。考えられる細胞診結果は、(重症度によって順序付けられた、)正常、ASCUS(境界線)、LSIL(軽度の細胞核異常)、ASC−H、中程度の細胞核異常、重度の細胞核異常(HSIL)、腺の異常による変化の疑い、または侵襲性癌の疑いのうちの1つであり得る。考えられるHPV検査結果は、陰性、HR陽性、16陽性、16/18陽性または他の1つであり得る。
したがって、概して、コンピューティングシステムを使用して、子宮頸部などの生体組織を(インビボまたはインビトロで)分類するための方法が考えられ得る。生体組織の検査領域の複数の画像を含む画像データが、コンピューティングシステムで受信される。複数の画像の各々は、組織の検査領域に病理鑑別剤(特に酢酸を含み、それは好ましくは希釈される)を局所塗布する期間中、異なる時間に捕捉される。これは、(酢酸が使用されるところに)酢酸白化であり得る、白化などの過渡的な光学的効果を引き起こす。受信された画像データは、コンピューティングシステム(具体的には、例えば、コンピューティングシステムの1つまたは複数のプロセッサ)上で動作する機械学習アルゴリズムへの入力として提供される。機械学習アルゴリズムは、有利にはニューラルネットワーク、より好ましくはディープニューラルネットワークを備え、複数の分類のうちの1つを組織に割り当てるように構成される。好ましい実施形態では、機械学習アルゴリズムは、組織の複数のセグメントの各々に複数の分類のうちの1つを割り当てるように構成され、これは、有利なことに、(以下でさらに考察されるように)分類を示すヒートマップの形式で提示され得る。本方法は、コンピュータプログラムとして実現され得る。
別の意味では、組織の分類のために動作するコンピューティングシステムが考えられ、生体組織の検査領域の複数の画像を含む画像データを受信するように構成された入力;および画像データに基づいて複数の分類のうちの1つを組織に割り当てるように構成された機械学習アルゴリズムを動作させるように構成されるプロセッサを備える。複数の画像の各々は、組織の検査領域への病理鑑別剤の局所塗布が過渡的な光学的効果を引き起こす期間中、異なる時間に捕捉される。
好ましい具体的な実施形態のさらなる実現例の詳細を提供する前に、この一般化された方法および/もしくはコンピュータシステムのいくつかの任意選択的特徴ならびに/または有利な特徴について説明する。そのような特徴は、典型的には、いずれの態様にも適用することができる。
複数の画像(または、複数の画像が導出される光学画像、RAW画像とも称される)は、一般に、組織の検査領域への病理鑑別剤の局所塗布が過渡的な光学的効果を引き起こす期間中、所定の持続時間の間隔(規則的であり得るが、そうでなくてもよい)で捕捉される。過渡的な光学的効果を引き起こす組織の検査領域への病理鑑別剤の局所塗布前の生体組織の少なくとも1つの画像が捕捉されてもよく(ベースライン参照画像)、これは、機械学習アルゴリズムへのさらなる入力として提供されてもよい。検査領域は、組織の検査領域への病理鑑別剤の局所塗布が過渡的な光学的効果を引き起こす期間中、広帯域光放射に有利に曝される。広帯域光放射は、好ましくは、過渡的な光学的効果に基づく帯域幅を有し、例えば、捕捉された画像において酢酸白化効果を可視にする帯域幅のものである。光放射によって達成される画像輝度の照明レベルは、入射光強度および光源と標的との間の距離に関して十分に特徴付けられ得る。広帯域光放射は、光スペクトル全体、光スペクトルの少なくとも90%、80%、75%、70%、60%、または大部分(50%)をカバーし得る。狭帯域光放射は、場合によっては、例えば、特定の病理鑑別剤(例えばフルオレセインマーカーを使用する分子診断など)のために使用され得る。その場合、狭帯域光放射は、例えば、紫外線または赤外線のような、単一色に限定される、光スペクトルの50%未満、40%未満、30%未満、20%未満、または10%未満をカバーしてもよい。
コンピューティングシステムのプロセッサは、単一の処理装置または複数の処理装置を備えてもよい。各処理装置は、任意選択で、機械学習アルゴリズムの一部を(例えば、分散方式で)動作させるように構成される。処理装置は、異なる(遠隔)位置に配置されてもよい。
有利なことに、生体組織の検査領域の複数の光学画像(RAW画像)が捕捉される。これは、(適切に取り付けられたカメラを備える、および/またはプロセッサの制御下で)画像収集モジュールを使用して達成され得る。画像収集モジュールは、任意選択で、機械学習アルゴリズムが動作するプロセッサ(または、複数の処理装置が使用される場合、処理装置のうちの少なくとも1つ)から遠隔で配置される。
画像データの複数の画像は、複数の光学的(RAW)画像から導出されてもよい。任意選択的に、複数の光学画像のうちの1つまたは複数は、機械学習アルゴリズムへの追加入力として提供される。有益なことに、画像収集モジュールは、例えば、定期的な間隔で、または個々の生体組織(もしくは患者)の所定数の画像捕捉および/もしくは検査後に、較正される。各光学画像は、それぞれの合焦距離で捕捉され得る。合焦距離は同じであってもよい。次いで、光学画像は、特に、複数の画像の各々のスケールが所定のレベルになるように、複数の画像のそれぞれの1つを提供するよう、合焦距離および基準距離に基づいてスケーリングされ得る。各光学画像は、好ましくは、複数の画像内で検査領域の整列を提供するように変換される。追加的または代替的に、各光学画像は、1つもしくは複数のアーチファクトまたは1つもしくは複数の種類のアーチファクトを除去するよう処理され得る。複数の画像は、所定の臓器に対応する複数の画像の一部分を識別するために処理されてもよい。例えば、生体組織が子宮頸部を含む場合、複数の画像は、子宮頸部に対応する複数の画像の一部分を識別するために処理され得る。いくつかの実施形態では、複数の画像を処理して、少なくとも1つの抽出された特徴および/または少なくとも1つの形態学的特性、例えば非定型血管;モザイク現象;および小斑点のうちの1つまたは複数を識別および/または定量化することができる。抽出された特徴および/または形態学的特性は、機械学習アルゴリズムへの追加の入力として提供されてもよい。
複数の画像の各々は、それぞれの画素セットによって規定され、任意選択で、画素セットの各々は、同じ画素構成を有する。好ましい実施形態では、マップデータが取得され、マップデータは、画素構成の各画素についてそれぞれの解析指標を含み、解析指標は、複数の画像から導出される。好ましくは、画素に対する解析指標は、複数の画像から導出される少なくとも1つのパラメータに基づいて生成される。少なくとも1つのパラメータは、任意選択で、所定のスペクトル帯域幅に制限され、複数のパラメータが導出される場合、これらは、第1の所定のスペクトル帯域幅に制限された第1のパラメータと、(第1の所定のスペクトル帯域幅とは異なる)第2の所定のスペクトル帯域幅に制限された第2のパラメータとを備え得る。各パラメータは、画素のデータそのものに基づいて、および/または、複数の画像にわたる画素のデータを線もしくは曲線に当てはめ、曲線からパラメータを判断することによって、決定され得る。各画素についての解析指標は、単一のパラメータまたは複数のパラメータの重み付けされた組み合わせに基づくことができる。少なくとも1つのパラメータは、例えば、複数の画像にわたる画素の最大強度;画素の最大強度に達する時間;および複数の画像にわたる画素の強度の合計もしくは重み付けされた合計、のうちの1つまたは複数を含む。複数の画像にわたる画素の強度の重み付けされた合計は、複数の画像の各々についての捕捉時間、例えばそれらの相対的捕捉時間に基づく重みを使用することができる。これにより、時間にわたる強度の積分(または時間に対する強度の曲線下面積)を計算することができる。マップデータ(または解析指標のうちの少なくとも1つまたは複数)は、機械学習アルゴリズムへの追加入力として提供されてもよい。
いくつかの実施形態では、1つまたは複数の被験者特性が機械学習アルゴリズムへの入力として提供される。各被験者特性は、生体組織が由来する被験者に関連してもよい。例えば、1つまたは複数の被験者特性は、被験者リスク因子(被験者の年齢、被験者の喫煙者ステータス、被験者のHPVワクチン接種ステータス、性交中のコンドームの使用、および被験者の出産経歴のうちの1つまたは複数など)、ならびに被験者臨床検査結果(たとえば、以前の細胞診結果、以前のHPV検査結果、以前のHPVタイピング検査結果、以前の子宮頸部治療情報、以前の子宮頸癌または前癌のスクリーニングおよび/または診断の履歴のうちの1つまたは複数)、の1つまたは複数を含んでもよい。
次に、さらなる実現例の詳細を説明する。ここで図2を参照すると、本開示による膣鏡検査解析プロセスが概略的に示されている。図の左側に示されるように、プロセスにおける最初のステップは、画像100の捕捉、準備、および解析である。最初に、元の画像102が捕捉され、次いでこれらが処理されて整列画像104が生成され、パラメトリック擬似カラーマップ106が生成される。これらは、AI処理ステップ110への入力として提供される。非画像データ120も、AI処理ステップ110への入力として提供され、非画像データ120は、年齢情報121;喫煙者ステータス122;HPVステータス123;およびPap検査ステータス124を含み得る。本明細書で説明するように、異なるおよび/または追加の入力も可能である。
AI(特にメインサーバ20上で動作するアルゴリズム)は、ある意味、画像が捕捉された組織を分類するようにトレーニングされる。異なるデータセットを使用して、AIの異なる局面をトレーニングすることができる。トレーニングに使用されるデータの1つまたは複数のタイプは、典型的には、分類に使用されるデータの1つもしくは複数のタイプのいずれか1つまたは複数を含み得る。一実施形態では、AIは、画像を含むトレーニングデータと、既知の生検領域および組織病理学的結果を有する患者症例の十分に特徴付けられたセットからの関連する分類とに基づいて、子宮頸部上皮内新形成(CIN)分類を与えるように構成される。特に、これは、生検された既知の部位を有する症例のセットであり、生検の組織学的結果が有利に既知である。疑わしい領域の専門精査者注釈も利用可能であってもよく、これらはさらなるトレーニングデータとして提供されてもよい。ある実現例では、症例のセットは切除治療を受けており、それらの組織構造の詳細なマッピングが利用可能であり、これは、トレーニングデータとして提供することもできる治療試料当たり複数のセクションを含む。AIは、リスクスケールで子宮頸部を分類することができ、このスケールの異なるレベルは、(例えば、整数または連続スケールでの0〜1、0〜100または1〜100のスケールでの)異なるグレードのCINを有する患者の全体的なリスクに対応する。このスケール上の異なる閾値は、最終性能を微調整するか、またはリスクがない、低い、もしくは高い、の直接的な表示を提供するように選択され得る。別の実施形態では、AIは、分類、例えば正常、CIN1、CIN2、CIN3、AISまたは侵襲性癌(複数の疾患タグのうちの1つ)、における結果を直接提供してもよい。
トレーニングデータセットは、臨床試験から提供されてもよい。これらは、(元のおよび整列された形態での)酢酸白化を有する子宮頸部の時限(動的)画像、画像に対するパラメトリック擬似カラーマップを提供するための構成データ、組織学的結果(既知の場合生検位置を伴う)、ならびに患者ベースライン特性(年齢、細胞診、HPV、喫煙者ステータス、以前の病歴など)のうちの1つまたは複数を含み得る。患者データセットは、参照画像(酢酸塗布前)およびすべての後続の(酢酸塗布後)時限画像(最大24)で検査中に捕捉された画像のセットを含むことができる。画像解像度は、1024×768、1600×1200または2800×2100であってもよく、他の解像度も可能である。追加的または代替的に、患者データセットは、画像処理アルゴリズムによって整列された画像のセットを含むことができ、これは、参照画像(酢酸塗布前)およびすべての後続の(酢酸塗布後)時限画像(最大24)を含むことができる。整列された画像解像度は、例えば、1024×768または2048×1536とすることができる。パラメトリック擬似カラーマップの典型的な解像度は、例えば1024×768または2048×1536である。組織学的結果は、(重症度によって順序付けられた)正常、CIN1、CIN2、CIN3、AIS、侵襲性癌のうちの1つであり得る。
組織についての単一の分類をAIから出力してもよいが、他の選択肢も可能である。特定の実現例では、AIは、システムで検査された各患者の子宮頸部の画像を解析し、セグメント化することができる。画像は、所定の方法で、または病変もしくは疾患リスクの識別に基づいてセグメント化されてもよく、任意選択で機械学習アルゴリズムの外で行われてもよい。次いで、子宮頸部の各セグメントは、(上述のように)異なるCINのグレードについて推定されたリスクについてリスクスケールで分類されるか、またはいくつかの別個の疾患状態の1つからの分類を提供するよう分類される。任意選択で、AIは、判断された形態学的特性の存在に従って、各画素および/またはセグメントを分類してもよい。これは、さらなる分類を決定するために使用され得るが、ユーザに出力として提供される必要はない、AIの中間出力であり得る。
AIセグメント化および分類結果は、AIの出力として確率論的「ヒートマップ」(パラメトリック擬似カラーマップ)として表示され得る。これは、図2にAI出力130として示される。次いで、AIから出力されるヒートマップ(これは、上記のように画像を処理することによって生成されるパラメトリック擬似カラーマップとは異なり、AIへの入力として使用され得る)は、有利なことに、検査中に(例えば、ローカルプロセッサ15を介して)システムオペレータに対して、子宮頸部画像上にオーバーレイとしてグラフィック形式で表示されて、読取および臨床的判断を容易にする。ヒートマップの解像度は、AIへの入力として提供されるスケーリングされた画像と同じであってもよい(例えば、1024×768または2048×1536など)。これ(または同様の画像処理)は、AIヒートマップ出力を、検査の間に捕捉された子宮頸部の画像上にオーバーレイすること(例えば、後処理)を可能にし得る。そのような「ヒートマップ」は、(生検部位同定または切除治療のためのような)有意な臨床的有用性を有し得る。
代替的に、AIセグメント化および分類結果は、AIの出力として、予め規定された閾値を超える分類スコアを達成する領域を示すバウンディングボックスとして表示されてもよい。例えば、これは、リスクがないか、低いか、もしくは高いかを示すものとしてでもよく、または例えば、正常;CIN1;CIN2;CIN3;AIS;もしくは侵襲性癌の疾患タグと直接的に関連するものであってもよい。
それが生成する各結果について、AIモジュールは、付随する信頼区間またはグラフィカル形式もしくは数値形式であり得る正解率の別の尺度を計算することもできる。
本開示で説明するアプローチは、正解率および受信機動作特性(ROC)曲線性能を向上させる。これは、AUC(「曲線下面積」)として測定することができ、これは、ROC曲線が偽陽性率に対して真陽性率をプロットし、したがって、感度および特異性の組合された性能を示すからである。AIの性能は、検査した各患者について、AI分類をグラウンドトゥルース(組織学的結果)と比較することによって判断することができ、その比較を、真陽性(TP);偽陽性(FP);真陰性(TN);および偽陰性(FN)のうちの1つとして特徴付けることができる。比較のための主なメトリックは、全体的な正解率、感度および特異性であり得る。二次測定は、陽性および陰性の予測値を含み得る。
上記で論じた一般的な意味を参照すると、いくつかの実施形態では、機械学習アルゴリズムは、複数の分類のうちの1つを組織の1つまたは複数のセグメントの各々に割り当てるように構成されると考えられる。組織の1つまたは複数のセグメントは、任意選択で、例えば機械学習アルゴリズムを使用して、画像データから識別される。代替的に、セグメントは、画像データの各画像における画素の数に基づいてもよい。出力画像が生成され(および任意選択で表示され)、画像データに基づく生体組織の検査領域を示し、組織の複数のセグメントの各々に割り当てられた分類を示してもよい。例えば、これはヒートマップの形式をとることができる。したがって、組織の複数のセグメントは、生体組織の検査領域のサブ領域を表すことができる。これらのサブ領域は、1つもしくは複数のマスク、特徴抽出、および/または特定のサブ領域に割り当てられた共通の分類に基づいて、規定され、ならびに他のサブ領域から線引きされ得る。これは、サブ領域の形状およびサイズが、この場合、組織にわたって適用される特徴および/または分類によって決定され得ることを意味する(したがって、サイズまたは形状が均一でなくてもよい)。したがって、改善された性能は、(全体的な組織分類とは対照的に)組織の異なる部分に個々の分類を適用する能力に基づいて測定され得る。
分類は、組織の1つまたは複数のセグメントに割り当てられる分類に基づいて(または、重み付けされた合計など、複数のセグメントに割り当てられる分類の組み合わせから)、組織(全体または全体的)に割り当てることができる。追加または代替として、組織(全体または全体的)に割り当てられる分類は、機械学習アルゴリズムとは異なるアルゴリズム、例えば異なる並列モデルに基づき得る。分類は離散的であってもよいし、連続範囲上の値のスケール(例えば、確率として、ある条件が存在するなどのリスクレベルまたはスコア)によって定義されてもよい。
機械学習アルゴリズム(または、コンピュータシステムから遠隔であってもよい第2のコンピュータシステム上で動作可能なバージョン)は、複数の他の生体組織(これは、組織の検査領域への病理鑑別剤の局所塗布が一過性の光学的効果を引き起こす期間中、異なる時間に捕捉され得る)の各々について、それぞれの複数の画像およびそれぞれの割り当てられた分類に基づいてトレーニングされ得る。他の生体組織の数は、いくつかの場合においては、少なくとも100,500,1000または5000であってもよい。任意選択で、組織に対するユーザ決定分類またはデータベース分類が、さらなるトレーニングのために機械学習アルゴリズムに提供されてもよい。これは、既知の組織学的結果を有する生検もしくは高度に訓練された医療専門家の臨床評価の一方または両方に基づくことができる。そのような分類は、手動で提供されてもよく(例えば、臨床医、医療専門家、または技術的専門家によって直接)、および/またはそれらは、入力データセットの一部を形成し得る、例えば患者記録のデータベースから自動的に引き出されてもよい。その場合、分類は、データベース(またはデータセットが部分的もしくは完全に導出された異なるデータベース)に手動で入力されていてもよい。
いくつかの実施形態では、コンピューティングシステムの第1のプロセッサで動作可能な第1の機械学習アルゴリズムを使用して、組織に分類を割り当てることができる。場合によっては、第1のプロセッサは、画像収集モジュールにローカルであり、画像収集モジュールは、生体組織の検査領域の複数の光学的(RAW)画像を捕捉するために使用され、そこから複数の画像が導出される。任意選択で、コンピューティングシステムの第2のプロセッサで動作する第2の(異なる)機械学習アルゴリズムを使用して、組織に分類を割り当てることもできる。追加的または代替的に、第2の機械学習アルゴリズム(機械学習アルゴリズムのあるバージョンとして上記で説明される)は、例えば、第1の機械学習アルゴリズムによって識別される1つまたは複数の分類を使用してトレーニングされてもよい。第2のプロセッサは、画像収集モジュールから遠隔であることが好ましく、ある場合には、第1のプロセッサも遠隔であってもよい。第2の機械学習アルゴリズムは、有利なことに、第1の機械学習アルゴリズムと比較して異なる構造および/またはパラメータ化を有する。いくつかの実施形態では、第1のプロセッサにおいて割り当てられた分類は、第2のプロセッサへの入力として提供されてもよい。
一実施形態では、第2の機械学習アルゴリズムは、組織に対するユーザ決定分類またはデータベース分類を(例えば、上述の通り、既知の組織構造を有する生検から)第2の機械学習アルゴリズムに提供することによって、トレーニングされてもよい。しかしながら、第1の機械学習アルゴリズムは、任意選択で、組織に対するユーザ決定分類またはデータベース分類を第1の機械学習アルゴリズムに提供することによってトレーニングされない。このようにして、トレーニングなしで(迅速および/またはより複雑度の低い)機械学習アルゴリズムを提供し(すなわち固定アルゴリズム)、例えば、追加データが提供されていることに基づいて、連続的な動的トレーニング(増分学習)が提供された(より低速および/またはより高度な)機械学習アルゴリズムを提供することができる。例えば連続動的トレーニングによれば、第2の機械学習アルゴリズムは、1つまたは複数の生体組織の複数の検査領域の各々に対して、(コンピュータシステム上で動作する機械学習アルゴリズムに提供される)検査領域の複数の画像;(その検査領域について実施される)1つもしくは複数の生検位置;(コンピュータシステム上で動作する)第1の機械学習アルゴリズム(すなわち、ローカルアルゴリズム)によって割り当てられた組織の複数のセグメントの各々に対する複数の分類;および組織の組織病理学的結果、のうちの1つまたは複数を与えられることができる。トレーニングのない機械学習アルゴリズムは、画像捕捉に対してローカルであってもよく、および/または連続動的トレーニングを伴う機械学習アルゴリズムは、画像捕捉に対して遠隔であってもよい。連続動的トレーニングのプロセスは、バッチで有利に実行される。有利なことに、このプロセスは、複数の別個の画像捕捉装置(各々が、それぞれのローカルマシン学習アルゴリズムを伴う)からのデータを組み込んでもよい。第1の機械学習アルゴリズム(固定アルゴリズム)は、時々更新されてもよい。
次に、実験結果について説明する。実施された実験は、図3を参照して説明され、実験システムのための方法を詳述するフローチャートが概略的に示されている。このフローチャートは、基本的な品質基準(焦点が充分に合っている画像、完全な画像シーケンス、有意なアーチファクトがない、および既知の生検結果など)を満たす患者データセットの選択のステップの後の作業パイプラインを示す。まず、組織上にラベルを正確に配置するために生検処置の画像および映像を精査することにより、トレーニング用画像の注釈付け200(生検領域のマーキングおよびそれらへの疾患ラベルの付加)を行った。この後、対応する画像マスクの抽出を含むマスク生成210が続いた。次いで、パッチの抽出220を17時点にわたって行った。特徴抽出230は、各生検領域から、および別途すべてのパッチについて、特徴を抽出することを含む。次いで、データインピュテーション技法240を実行して、すべての欠測値を考慮した。ディープラーニングスキームのステップ250は、各パッチについての確率の計算のために3つの異なる機械学習スキームのセットアップおよびトレーニングを含む。最後に、ヒートマップ生成260が、テストケースに対するディープラーニングスキームの出力から生じる。テストケースは、図3の方法によって記載されるものと同様の方法で準備された。唯一の相違点は、モデルが生検領域の(すなわち注釈200における)疾患ステータスを知らず、代わりにそれを予測しなければならなかったことである。
データセットは、DYSIS Medical Limitedにより製造されたデジタル膣鏡を使用し、動的スペクトルイメージング(DSI)マッピングを用いて、396個の独立した生検を有する222人の患者を含む既存の臨床試験から得た。生検の位置は既知であり、生検は、視覚的に選択された生検、DSIマップに基づく生検、および臨床医に正常に見えた領域からのランダムな生検を含んだ。各患者のデータセットは、17個の画像を含んでおり、それらは、参照画像(酢酸白化前)および標準時点における16個の後続画像を含んだ。入力として使用される画像は、移動(変位、収縮など)を補償するために位置合わせ(整列)された後である。
結果の二値分類のために、生検をそれらの組織学的グレード付けに従って、「陰性」クラスとして正常/低グレード−NLG(陰性およびCIN1結果を含む)、および「陽性」クラスとして高グレード−HG(CIN2、CIN3、AIS、侵襲性癌)の2つのクラスに分けた。これは、臨床的に意味のある分類であり、大部分の膣鏡検査研究で使用される分類と一致する。
データセットを、患者によって、トレーニングセットについて80%、検証について10%、および独立テスト実施について10%に、手動で分割した。この分割のために、検証セットおよびテストセット内で同様の患者分布を作成するために、患者当たりの生検の数ならびに低グレード生検および高グレード生検のパーセンテージを検討した。残りの患者はトレーニングに使用した。トレーニングセットは172人の患者および306の生検を含み、検証は25人の患者および46の生検を含み、テストセットは25人の患者および44の生検を含んだ。
各画像の生検領域は個々に注釈を付けた(空間的にマーキングし、疾患のグレードでラベル付けした)。各生検は、その組織病理学的グレードに従って、正常、CIN1、CIN2、CIN3、AISまたは侵襲性癌として分類された。
注釈に続いて、各生検の対応するマスク(すなわち、画像領域)を抽出した。これらのマスクに基づいて、パッチを、異なる時点について、17個の整列された画像にわたって抽出した。パッチは、まず、異なるサイズ16×16画素、32×32画素および64×64画素で、ならびに8画素,16画素,32画素および64画素の異なるストライドで抽出され、どの組み合わせが最良に機能したかを探索できた。
各パッチから、局所的な色、勾配、およびテクスチャに基づく多数の手作業特徴を抽出し、機械学習アルゴリズムにおいて入力として適用した(Tao Xu et al, Pattern Recognit. 2017 Mar; 63: 468-475; Kim E, Huang X. "A data driven approach to cervigram image analysis and classification", Color Medical Image analysis, Lecture Notes in Computational Vision and Biomechanics. 2013;6:1-13; and Song D, Kim E, Huang X, et al. "Multi-modal entity coreference for cervical dysplasia diagnosis", IEEE Trans on Medical Imaging, TMI. 2015;34(1):229-245を参照されたい)。これは、各パッチおよび時点について合計1,374個の特徴をもたらした。抽出された特徴は、値の大きさ、単位、および範囲において非常に変化し、したがって、それらはすべて0−1スケールで正規化された:
Figure 2021520959
特徴抽出後、データインピュテーション(G. Welch, G. Bishop, "An Introduction to the Kalman Filter", SIGGRAPH 2001 Course 8, 1995参照)を適用して、ぼやけたパッチおよび不整列のパッチ上の幾つかの欠けている特徴を補償した。インピューテーション法は別途検証された。データは、患者ごとに、生検領域から抽出されたパッチの各々について(インピュテーションされたものを含む)抽出された特徴の各々の値に対する各パッチからの時点の行列を提供するように、構造化された。
ここで、解析に用いた機械学習モデルについて説明する。上記のデータは、3つの異なる機械学習分類器:ランダムフォレスト(RF);全結合ニューラルネットワーク(fNN);およびロング・ショート・ターム・メモリ・ニューラル・ネットワーク(LSTM、つまり再起型ニューラルネットワークRNNの一種)への入力として使用された。
次に図4を参照すると、公知のランダムフォレスト分類モデルが概略的に示されている。ランダムフォレストまたはランダム決定フォレストは、トレーニング時に多数の決定木を構築し、個々の木のクラス(分類)または平均予測(回帰)のモードであるクラスを出力することによって動作する、分類、回帰、および他のタスクのためのアンサンブル学習法である(Ho, Tin Kam, "Random Decision Forests", Proceedings of the 3rd International Conference on Document Analysis and Recognition, Montreal, QC, 14-16 August 1995. pp. 278-282を参照されたい)。ランダム決定フォレストは、それらのトレーニングセットに過剰に当てはまる決定木の傾向を修正する。ランダムフォレスト(RF)分類器を実現するために、scikit-learn Pythonライブラリおよび150個の推定器(決定木)を用いた。
ここで図5を参照すると、公知の人工ニューラルネットワーク(ANN)アーキテクチャが概略的に示されている。ANN(ニューラルネットワークまたはNNとも呼ばれる)は、脳などの生体神経系が情報を処理する方法に触発された情報処理パラダイムである。鍵となる要素は情報処理システムの新規な構造である。それは、多数の高度に相互接続された処理要素(ニューロン)が一体となって働いて特定の問題を解決している。NNは、人々のように、例によって学習する。NNは、学習プロセスを通して、パターン認識やデータ分類などの特定の用途に対して構成される。生体系における学習は、ニューロン間に存在するシナプス接続に対する調整を伴う。NNについても同様である。
複雑なデータまたは不正確なデータから意味を導き出す能力を有するニューラルネットワークは、パターンを抽出し、人間または他のコンピュータ技術のいずれかが気付くには複雑すぎる傾向を検出するために使用することができる。トレーニングされたニューラルネットワークは、それが解析するために与えられた情報のカテゴリーにおける「専門家」と考えることができる。次いで、この専門家を使用して、対象の新たな状況を与えられた投影を提供し、「what if(仮に)」質問に答えることができる。ニューラルネットワークの場合、オープンソース機械学習フレームワークTensorFlow (RTM) Pythonを用いた。ハイパーパラメータチューニングおよび小グリッド探索の後、各々3層および50単位を有し、出力層として2単位を有するソフトマックス層を有する全結合ネットワークを用いた。
NNは、そのような分類に有用なツールであり得るが、人間はあらゆる状況において思考を無から開始しないことが認識されている。従来のNNは、以前のトレーニングからの情報を使用することはできず、それは欠点と思われる。再帰型ニューラルネットワーク(RNN)は、この問題に対処する。それらは、それらの中にループを有するネットワークであり、情報が「持続」することを可能にする。RNNは、各々がメッセージを後続のものに渡す、同じネットワークの複数のコピーと考えることができる。
次に図6を参照すると、公知のロング・ソート・ターム・メモリ(LTSM)基本アーキテクチャが概略的に示されている。LSTMは、長期依存性を学習することが可能な特別な種類のRNNである。LSTMは、長期依存性問題を回避するように明示的に設計される。LSTMの場合、分類器の実現にはANNと同じプロセスが用いられる。より具体的には、ハイパーパラメータ最適化およびグリッド探索の後、最良のモデルは、各々20単位を有する2つのLSTM層と、出力層として2単位を有する用いるソフトマックスとからなることが見出された。
加えて、3つの分類器のすべての可能な組み合わせの各パッチに対する確率の平均を使用して、一連のアンサンブル分類スキームを開発した。具体的には、生検に対する25人のテスト患者について、RF+NN+LSTM、RF+NN、RF+LSTM、およびNN+LSTMについて、4つの組み合わせをテストした。
一連の加重平均確率スキームも開発された。より具体的に言えば、各アンサンブルスキームに従って、組み合わされた検証確率で、「浅いニューラルネットワーク」をトレーニングし、検証確率は上記の各素モデル(RF、NNおよびLSTM)から個々に抽出された。ディープNNとは対照的に、浅いNNは、隠れ層を1つだけ有する。
アーキテクチャは、まず、画像マスクのサイズおよび特徴を考慮してどのアプローチが最もよく機能するかを評価するために、異なる組み合わせのパッチサイズおよびストライドで試行された。パッチサイズ32×32と8画素のストライドとの組み合わせが、最良に機能することが見出され、したがって、すべてのモデルの微調整および結果の生成のために採用された。
図7A〜図7Dおよび図8A〜図8Dを参照して、テストされたアプローチの各々の性能について説明し、例えば、処理された生体組織のヒートマップを示す。テストセット内の画像マスク(すなわち生検領域)について3つの基本的な分類器(RF、NNおよびLSTM)によって計算されるパッチレベル確率を使用して、示される対応するヒートマップを構築した。モデルは、先にこれらのケースを「見」ず、それらの結果を知らなかった。ヒートマップの各画素に割り当てられた確率は、それを含むすべてのパッチにおけるそれの値の平均であった。暗示的に、25個のテストケースのうちの2つのテストケースに対するヒートマップが、各々、元の検査からの対応するDSIマップと共に(図7Aおよび図8A)、3つの異なる機械学習技術(図7B、図7C、図7Dおよび図8B、図8C、図8D)を使用して、提示される。
分類の臨床評価では、各方法による生検領域毎の予測を2つのクラス:NLG(正常または低グレード)およびHG(高グレード)に分類した。これは、視覚評価によってケースバイケースで行われ、生検ヒートマップが0.5より大きい確率(すなわち、赤色、黄色、または白色)を含む場合、この生検についての予測はHGとして分類され、そうでなければ、NLGと見なされた。
最初に図7Aを参照すると、領域301は、高グレード(HG)結果を有する生検領域を示し、領域302は、陰性/低グレード(NLG)結果を有する生検領域を示す(生検組織のステータスは組織学的グレード付けによって確認された)。生検領域(領域301および302)内の、より小さい円注釈は、元の検査からの臨床医注釈を表す。DSIマップは、領域301における領域を潜在的なHGとして強調表示せず、領域302を正常/低グレードとして正確に分類した。図7Bを参照すると、上述したように、RFアルゴリズムの出力を有するヒートマップが示されている。高確率領域303は、領域301と同じ領域において識別されるが、領域302と同じ組織領域である領域304には何も現れない。図7Cを参照すると、上述したように、NNアルゴリズムの出力を有するヒートマップが示されている。高確率領域305は、領域301と同じ組織領域において識別され、低確率領域306は、領域302と同じ組織領域において識別される。図7Dを参照すると、上述のように、LSTMアルゴリズムの出力を有するヒートマップが示されている。より明確な高確率領域307が、領域301と同じ組織領域に識別され、より明確な低確率領域308が、領域302と同じ組織領域に現れる。これは、標準的なDSIアルゴリズムに対する3つの機械学習アルゴリズムの性能の改善を示し、なぜなら、それらは、HG生検結果の領域を正確に強調表示し、NLG生検結果の領域を正確に予測したからである。
図8Aを参照すると、両方とも高グレード(HG)であった2つの生検領域310および311が示されている。生検領域310および311内の(またはそれらと交差する)、より小さい円の注釈は、元の検査からの臨床医注釈を表す。生検組織のステータスは組織学的グレード付けによって確認された。DSIマップは、2つの領域のうちの1つ(生検領域310)を潜在的なHGとして強調表示したが、領域311をHGとして強調表示しなかった。図8Bを参照すると、上述したように、RFアルゴリズムの出力を有するヒートマップが示されている。ここで、高確率領域312は、HG生検領域の一方と同じ領域で識別され、いくらかより低い確率領域313は、HG生検領域の他方と同じ領域で識別される。図8Cを参照すると、上述したように、NNアルゴリズムの出力を有するヒートマップが示されている。高確率領域314は、HG生検領域の一方と同じ領域で識別され、低確率領域315は、HG生検領域の他方と同じ領域で識別される。図8Dを参照すると、上述したように、LSTMアルゴリズムの出力を有するヒートマップが示されている。高確率領域316は、HG生検領域の一方と同じ領域で識別され、高確率領域317もHG生検領域の他方の領域と同じ領域に現れる。したがって、LSTMアルゴリズムの性能の改善が、RFアルゴリズムおよびNNアルゴリズムならびに元のDSIアルゴリズムに対して見られる。
症例が比較的少数であること、およびデータセットの性質が不均衡であることを考えると、1つの俯瞰メトリックで性能を要約するために、「平均正解率」を用いることにより、a)生検およびb)患者を正しく正常/低グレード対高グレードとして分類する。平均正解率(以下、単に正解率という)は、各クラスにおいて正しく分類された症例の数の平均である。これは、事実上、感度と特異性との間の平均であり、感度および特異性のみよりもより全体的な俯瞰を提供する。
生検レベル解析(すなわち、各生検は、別個の単位として考慮され、解析される)では、RFおよびNN分類器の正解率は81%であったが、LSTMでは84%であった。比較のために、同じデータセット上で、元のDSIマップは57%の正解率を達成した。生検領域の結果に基づく患者レベルの解析では、各患者は、少なくとも1つの生検がHGであるとき、HGと見なされた。RFおよびNNは77%の正解率を達成し、LSTMは70%を達成したが、元のDSIマップの正解率は59%であった。
平均アンサンブルスキームの生検レベル解析の正解率は、77%(RF+NN)〜83%(RF+LSTM、NN+LSTM、およびRF+NN+LSTM)の範囲であった。患者レベルの解析については、すべてのスキームの正解率は81%であった。加重平均アンサンブルスキームの生検レベル解析の正解率は、77%(RF+NN+LSTM)、79%(RF+LSTM)、86%(RF+NN)および88%(NN+LSTM)であった。患者レベルの解析については、スキームの正解率は、77%(RF+NN+LSTMおよびRF+NN)ならびに81%(RF+LSTMおよびNN+LSTM)であった。
この概念証明プロジェクトにおいて開発された機械学習モデルは、組織領域を正常/低グレード対高グレードとしてマッピングおよび分類することにおいて既存のDSIマップよりも全体的に改善された性能を達成し、生検部位選択および臨床管理判断の支援をさらに改善するために使用することができる臨床適用例を実証する。
モデルのトレーニングおよびテストのために、より大きなデータセットを含めることは、有益であり得る。特徴およびパッチサイズ効果の異なる選択も考慮され得る。各患者に利用できるさらなるデータおよびリスク要因は、画像の元の収集における膣鏡検査照明輝度設定および患者の年齢、スクリーニング結果(細胞診、hrHPV、HPV16、HPV18)、ならびに喫煙者ステータスである。これらは、性能をさらに向上させ得る、モデルへの入力としても使用されてもよい。
大きなデータセットでトレーニングされるとき、モデルは、生検領域だけでなく子宮頸部全体についてヒートマップを計算し、アーチファクトの存在にも適応するよう、使用されてもよい。
上記の実験においてモデルのトレーニングに使用された特徴は、各時点から別々に抽出され、それらの時間依存性はネットワークによって拾われると仮定された。別の実施形態では、抽出する特徴の設計は、特徴が時間にわたる特性の関数であるように、時間要素を含み得る。
畳み込みニューラルネットワーク(CNN)の、独立的な、または例えばRNNとCNNとの組み合わせなど、アンサンブルスキームの一部としての使用も、可能である。このスキームの鍵となるモジュールは、畳み込み層に再帰型接続を導入する再帰型畳み込み層(RCL)であり得る。これらの接続により、ネットワークは、入力が静的であり、各単位がその隣接単位によって影響を受けるにも関わらず、経時的に進化することができる。別の例は、患者について分類確率を生成する入力としての単一の時点画像とともにCNNを使用することである。これは、次いで、画像シーケンスと一緒に追加の入力として別のニューラルネットワーク分類器(例えば、NNまたはRNN)へ供給され得る正確な結果を生成することができることが示されている。さらに別の例は、別個のCNNを使用して、シーケンス内の各個々の画像を別々に評価し、それらの個々の出力の組み合わせを別のニューラルネットワーク、たとえばRNNまたはLSTMに入力して最終出力を提供することである。CNNの利用は、上述したように、手作業の特徴の抽出を必要としない場合があり、なぜならば、特徴はネットワーク自体によって抽出され得るからである。
特定の実施形態をここで説明してきたが、当業者は、様々な修正および変更が可能であることを理解するであろう。例えば、様々なスキームで異なる種類の画像処理および機械学習分類器を含むことが考えられる。上述したように、本開示は、一般に、酢酸白化プロセスを用いた子宮頸部組織の検査を対象とするが、病理鑑別剤を用いた他の生体組織の検査および/または分類のために実施されてもよい。例えば、希酢酸を用いることが好ましいが、特定の目的のために、代わりに他の種類の酸が使用されてもよい。この技術は、分子診断を用いた分類にも適している。好ましい実施形態はインビボで捕捉された画像を使用するが、インビトロで捕捉された画像を使用する実現例も考慮され得る。いくつかの実施形態では、患者についての不完全なデータセットが、AIへの入力として提供されてもよい。
ローカルプロセッサおよび遠隔プロセッサの特定の構成が開示されてきたが、当業者は、異なるプロセッサ構成が可能であることを理解するであろう。例えば、1つまたは複数のプロセッサを、画像捕捉モジュールにローカルにのみ提供してもよい。代替的に、1つまたは複数のプロセッサを、画像捕捉モジュールに対して遠隔でのみ提供してもよい。コンピュータクラウドベースの解析または非クラウドベースの解析を採用してもよい。特に、第1の機械学習アルゴリズムが固定され、第2の機械学習アルゴリズムが継続的なトレーニングを(上述の態様で)有する状態で、第1の機械学習アルゴリズムおよび第2の機械学習アルゴリズムが画像捕捉モジュールに対して遠隔で提供される実現例が考えられ得る。
異なる種類のニューラルネットワーク構造または機械学習アルゴリズムが想定され得る。機械学習アルゴリズムの構造は、ユニモーダル(画像データのみを入力とする)またはマルチモーダル(画像データと非画像データとの両方を入力とする)とすることができる。AIの結果(すなわち出力画像)は、上述の確率的ヒートマップとして表示されるが、他の出力(データ形式または視覚化)も可能である。
各パッチから、局所的な色、勾配、およびテクスチャに基づく多数の手作業特徴を抽出し、機械学習アルゴリズムにおいて入力として適用した(Tao Xu et al, "Multi-feature based benchmark for cervical dysplasia classification evaluation", Pattern Recognit. 2017 Mar; 63: 468-475; Kim E, Huang X. "A data driven approach to cervigram image analysis and classification", Color Medical Image analysis, Lecture Notes in Computational Vision and Biomechanics. 2013;6:1-13; and Song D, Kim E, Huang X, et al. "Multi-modal entity coreference for cervical dysplasia diagnosis", IEEE Trans on Medical Imaging, TMI. 2015;34(1):229-245を参照されたい)。これは、各パッチおよび時点について合計1,374個の特徴をもたらした。抽出された特徴は、値の大きさ、単位、および範囲において非常に変化し、したがって、それらはすべて0−1スケールで正規化された:
画像収集モジュール10は、検査領域、特に子宮頸部の光学画像を捕捉して収集するための膣鏡撮像ユニットである。本発明の主な実施形態は、膣鏡システムに関し、そのようなシステムに適用可能な有意かつ明確な利点が存在するが、本明細書で説明される実現例は、生体組織の検査および/または撮像のための他のタイプのシステムに使用され得ることが理解されるであろう。画像収集モジュール10は、ローカルプロセッサ15によって制御され、ローカルプロセッサ15は、例えば、制御および/またはディスプレイを含むユーザインターフェースを含み得る。素性データベース30は、患者素性データを保存するために使用される。検査中、ローカルプロセッサは、第1の素性インターフェース32を使用して素性データベース30とインターフェースして、検査されている患者の素性データを検索することができる。検査中に収集された画像は、第1の画像データインターフェース42を介して撮像データベース40に格納される。患者識別子は、素性データベース30に記憶される情報と相互参照することを可能にするために患者画像とともに記憶されてもよい。

Claims (31)

  1. コンピューティングシステムを使用して生体組織を分類するための方法であって、
    コンピューティングシステムが、生体組織の検査領域の複数の画像を含む画像データを受信することを備え、前記複数の画像の各々は、前記組織の前記検査領域への病理鑑別剤の局所塗布が過渡的な光学的効果を引き起こす期間中、異なる時間に捕捉され、前記方法はさらに、
    前記コンピューティングシステム上で動作する機械学習アルゴリズムへの入力として前記受信された画像データを提供することを備え、前記機械学習アルゴリズムは、前記組織の複数のセグメントの各々に複数の分類のうちの1つを割り当てるように構成される、コンピューティングシステムを使用して生体組織を分類するための方法。
  2. 前記生体組織は子宮頸部を含む、請求項1に記載の方法。
  3. 前記機械学習アルゴリズムは、ニューラルネットワークまたはディープニューラルネットワークを含む、請求項1または2に記載の方法。
  4. 前記複数の画像のうちの少なくとも1つの画像は、前記期間の開始時、前記過渡的な光学的効果が生じる前に捕捉され、および/または
    前記複数の画像のうちの少なくともいくつかは、前記病理鑑別剤の局所塗布期間中、所定の持続時間の間隔で捕捉される、先行する請求項のいずれか1項に記載の方法。
  5. 前記検査領域は、前記組織の前記検査領域への病理鑑別剤の局所塗布が過渡的な光学的効果を引き起こす期間中、光放射に曝される、先行する請求項のいずれか1項に記載の方法。
  6. 前記病理鑑別剤は酸を含む、先行する請求項のいずれか1項に記載の方法。
  7. 画像収集モジュールを使用して、前記生体組織の前記検査領域の複数の光学画像を捕捉することをさらに備え、前記画像データの前記複数の画像は、前記複数の光学画像から導出される、先行する請求項のいずれか1項に記載の方法。
  8. 前記複数の画像の各々は、前記複数の画像内の前記検査領域の整列を提供するように変換されたそれぞれの初期画像から導出される;
    前記複数の画像の各々は、1つまたは複数のアーチファクトを除去するよう処理されたそれぞれの初期画像から導出される;および
    前記機械学習アルゴリズムへの入力として提供される画像データは、前記複数の画像の各々に対して、それぞれの初期画像から導出された複数のパッチを含む;のうち1つまたは複数が満たされる、先行する請求項のいずれか1項に記載の方法。
  9. 前記生体組織は子宮頚部を含み、前記方法はさらに、前記子宮頸部に対応する複数の画像の一部分を識別するために前記複数の画像を処理することを備える、先行する請求項のいずれか1項に記載の方法。
  10. 前記複数の画像の各々は、それぞれの画素セットによって規定され、前記画素セットの各々は、同じ画素構成を有し、前記方法はさらに、
    前記コンピューティングシステムがマップデータを取得することを備え、前記マップデータは、前記画素構成の各画素に対するそれぞれの解析指標を含み、前記解析指標は、前記複数の画像から導出され、前記方法はさらに、
    前記マップデータを前記機械学習アルゴリズムへの入力として提供することを備える、先行する請求項のいずれか1項に記載の方法。
  11. 画素についての前記解析指標は、前記複数の画像から導出される少なくとも1つのパラメータに基づいて生成され、前記少なくとも1つのパラメータは、前記複数の画像にわたる前記画素の最大強度、前記画素の前記最大強度に達する時間、および、前記複数の画像にわたる前記画素の強度の合計もしくは重み付けされた合計、のうちの1つまたは複数を含む、請求項10に記載の方法。
  12. 前記少なくとも1つのパラメータのうちのあるパラメータは、所定のスペクトル帯域幅に限定される;
    前記少なくとも1つのパラメータの各パラメータは、前記複数の画像にわたる前記画素についてのデータを線または曲線に当てはめ、前記線または曲線から前記少なくとも1つのパラメータを決定することによって決定される;および
    各画素についての解析指標は、前記少なくとも1つのパラメータのうちの複数のパラメータの重み付けされた組み合わせに基づく;のうちの1つまたは複数である、請求項11に記載の方法。
  13. 前記複数の画像を処理して、少なくとも1つの形態学的特性および/または少なくとも1つの抽出された特徴を識別する、先行する請求項のいずれか1項に記載の方法。
  14. 前記少なくとも1つの形態学的特性および/または抽出された特徴を前記機械学習アルゴリズムへの入力として提供することさらに備える、請求項13に記載の方法。
  15. 前記機械学習アルゴリズムは、ニューラルネットワークを含み、
    前記ニューラルネットワークは、畳み込みニューラルネットワーク、全結合ニューラルネットワークおよび再帰型ニューラルネットワークの1つもしくは組み合わせを含み、ならびに/または、
    前記ニューラルネットワークはマルチモーダルである、先行する請求項のいずれか1項に記載の方法。
  16. 1つまたは複数の被験者特性を提供することをさらに備え、各被験者特性は、前記機械学習アルゴリズムへの入力として、前記生体組織が由来する被験者に関連する、先行する請求項のいずれか1項に記載の方法。
  17. 前記1つまたは複数の被験者特性は、被験者リスク因子、被験者事前医療履歴情報、および被験者臨床検査結果のうちの1つまたは複数を含む、請求項16に記載の方法。
  18. 前記被験者リスク因子は、前記被験者の年齢、前記被験者の喫煙者ステータス、前記被験者の以前のHPVワクチン接種ステータス、前記被験者の性交中のコンドームの使用に関する情報、および前記被験者の出産経歴のうちの1つもしくは複数を含み、ならびに/または、前記被験者臨床検査結果は、以前の細胞診結果、以前のHPV検査結果、以前のHPVタイピング検査結果、以前の子宮頸部治療情報、および以前の子宮頸癌もしくは前癌のスクリーニングおよび/もしくは診断の履歴のうちの1つもしくは複数を含む、請求項17に記載の方法。
  19. 前記組織の前記複数のセグメントに割り当てられた前記分類に基づいて、および/または前記機械学習アルゴリズムとは異なるアルゴリズムに基づいて、前記複数の分類のうちの1つを組織全体に割り当てることをさらに備える、先行する請求項のいずれか1項に記載の方法。
  20. 前記複数の分類は、連続範囲における値のスケールによって規定され、および/または
    前記複数の分類は、複数の疾患タグによって規定される、先行する請求項のいずれか1項に記載の方法。
  21. 前記連続範囲における値のスケールは確率を示す、請求項20に記載の方法。
  22. 前記複数の分類は、少なくとも1つの形態学的特性の存在および疾患状態の一方または両方を示す、先行する請求項のいずれか1項に記載の方法。
  23. 出力画像を生成し、前記画像データに基づく前記生体組織の前記検査領域を示し、前記組織の前記複数のセグメントの各々に割り当てられた前記分類を示すことをさらに備える、先行する請求項のいずれか1項に記載の方法。
  24. 複数の他の生体組織の各々に対するそれぞれの複数の画像およびそれぞれの割り当てられた分類に基づいて前記機械学習アルゴリズムをトレーニングすること、
    前記組織についてのユーザ決定された分類またはデータベース分類を前記機械学習アルゴリズムまたは第2のコンピュータシステム上で動作する前記機械学習アルゴリズムのあるバージョンに提供することによって前記機械学習アルゴリズムをトレーニングすること、および
    連続的な動的トレーニングを前記機械学習アルゴリズムまたは第2のコンピュータシステム上で動作する前記機械学習アルゴリズムの前記あるバージョンに提供すること、の1つまたは複数をさらに備える、先行する請求項のいずれか1項に記載の方法。
  25. 前記複数の分類のうちの1つを、前記コンピューティングシステムの第1のプロセッサで動作する第1の機械学習アルゴリズムを使用して前記組織に割り当てることと、
    前記複数の分類のうちの1つを、前記コンピューティングシステムの第2のプロセッサで動作する第2の機械学習アルゴリズムを使用して前記組織に割り当てることと、
    前記組織に対するユーザ決定分類またはデータベース分類を前記第2の機械学習アルゴリズムに提供することによって前記第2の機械学習アルゴリズムをトレーニングすることとをさらに備え、前記第1の機械学習アルゴリズムは、前記組織に対するユーザ決定分類またはデータベース分類を前記第1の機械学習アルゴリズムに提供することによってトレーニングされない、先行する請求項のいずれか1項に記載の方法。
  26. 前記第1の機械学習アルゴリズムは固定アルゴリズムであり、前記方法は前記第1の機械学習アルゴリズムを更新することをさらに備える、請求項25に記載の方法。
  27. コンピューティングシステム上で動作させられると、任意の先行する請求項の方法を実行するように構成される、コンピュータプログラム。
  28. 組織の分類のために動作するコンピューティングシステムであって、
    生体組織の検査領域の複数の画像を含む画像データを受信するように構成された入力を備え、前記複数の画像の各々は、前記組織の前記検査領域への病理鑑別剤の局所塗布が過渡的な光学的効果を引き起こす期間中、異なる時間に捕捉され、前記コンピューティングシステムはさらに、
    前記画像データに基づいて前記組織の複数のセグメントの各々に複数の分類のうちの1つを割り当てるように構成された機械学習アルゴリズムを動作させるように構成されたプロセッサを備え、前記機械学習アルゴリズムはニューラルネットワークを含む、コンピューティングシステム。
  29. 前記生体組織の検査領域の複数の光学画像を捕捉するように構成される画像収集モジュールをさらに備え、前記受信された画像データは前記画像収集モジュールによって捕捉された前記複数の光学画像に基づく、請求項28に記載のコンピューティングシステム。
  30. 前記画像収集モジュールは前記機械学習アルゴリズムが動作するプロセッサから遠隔に位置し、または
    前記プロセッサは複数の処理装置を含み、各処理装置は前記機械学習アルゴリズムの一部を動作させるように構成され、前記画像収集モジュールは前記複数の処理装置のうちの少なくとも1つから遠隔に位置する、請求項29に記載のコンピューティングシステム。
  31. 請求項1から26のいずれか1項に記載の方法を実施するように構成される、請求項28から30のいずれか1項に記載のコンピューティングシステム。
JP2020568546A 2018-07-24 2019-07-24 生体組織のコンピュータ分類 Active JP6998474B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1812050.1 2018-07-24
GBGB1812050.1A GB201812050D0 (en) 2018-07-24 2018-07-24 Computer classification of biological tissue
PCT/GB2019/052074 WO2020021261A1 (en) 2018-07-24 2019-07-24 Computer classification of biological tissue

Publications (2)

Publication Number Publication Date
JP2021520959A true JP2021520959A (ja) 2021-08-26
JP6998474B2 JP6998474B2 (ja) 2022-01-18

Family

ID=63364499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020568546A Active JP6998474B2 (ja) 2018-07-24 2019-07-24 生体組織のコンピュータ分類

Country Status (14)

Country Link
US (1) US11562820B2 (ja)
EP (1) EP3776463B1 (ja)
JP (1) JP6998474B2 (ja)
CN (1) CN112088394A (ja)
AU (1) AU2019311336B2 (ja)
BR (1) BR112020023281A2 (ja)
CA (1) CA3099180C (ja)
CY (1) CY1124647T1 (ja)
DK (1) DK3776463T3 (ja)
ES (1) ES2900223T3 (ja)
GB (1) GB201812050D0 (ja)
HU (1) HUE056228T2 (ja)
RU (1) RU2765619C1 (ja)
WO (1) WO2020021261A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102168485B1 (ko) * 2018-10-02 2020-10-21 한림대학교 산학협력단 실시간으로 획득되는 위 내시경 이미지를 기반으로 위 병변을 진단하는 내시경 장치 및 방법
US20210374953A1 (en) * 2018-10-04 2021-12-02 Duke University Methods for automated detection of cervical pre-cancers with a low-cost, point-of-care, pocket colposcope
US10936160B2 (en) * 2019-01-11 2021-03-02 Google Llc System, user interface and method for interactive negative explanation of machine-learning localization models in health care applications
EP3977472A1 (en) * 2019-05-31 2022-04-06 PAIGE.AI, Inc. Systems and methods for processing images of slides to automatically prioritize the processed images of slides for digital pathology
US20210090718A1 (en) * 2019-09-25 2021-03-25 Vingroup Joint Stock Company Labeling apparatus and method, and machine learning system using the labeling apparatus
US11633145B2 (en) * 2019-10-21 2023-04-25 The Trustees Of Dartmouth College Specimen imaging with x-ray and optical measurement
US11443424B2 (en) * 2020-04-01 2022-09-13 Kpn Innovations, Llc. Artificial intelligence methods and systems for analyzing imagery
CN111640509A (zh) * 2020-06-02 2020-09-08 山东大学齐鲁医院 一种宫颈癌术后复发风险预测方法及系统
DE102020122552A1 (de) 2020-08-28 2022-03-03 Siemens Healthcare Gmbh Verfahren, einrichtung und system zur bestimmung von biopsieparametern
WO2022044642A1 (ja) * 2020-08-28 2022-03-03 富士フイルム株式会社 学習装置、学習方法、プログラム、学習済みモデル、及び内視鏡システム
WO2022196493A1 (ja) * 2021-03-17 2022-09-22 テルモ株式会社 プログラム、情報処理方法、画像診断装置及び学習済みモデルの生成方法
EP4075325A1 (en) * 2021-04-15 2022-10-19 Ardigen S.A. Method and system for the classification of histopathological images based on multiple instance learning
CN113344092B (zh) * 2021-06-18 2022-10-11 中科迈航信息技术有限公司 Ai的图像识别方法及终端装置
CN113724842B (zh) * 2021-09-08 2022-08-02 武汉兰丁智能医学股份有限公司 一种基于注意力机制的宫颈组织病理辅助诊断方法
US20230206431A1 (en) * 2021-12-28 2023-06-29 International Business Machines Corporation Three-dimensional delineation of tumor boundaries via supervised machine learning algorithms and augmented reality
DE102022112731A1 (de) 2022-05-20 2023-11-23 Carl Zeiss Meditec Ag Verfahren für ein maschinelles lernsystem zur operationsassistenz

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539366A (ja) * 2006-06-05 2009-11-19 フォース フォトニクス リミテッド 組織を特徴づける方法
JP2012505028A (ja) * 2008-10-10 2012-03-01 エスティーアイ・メディカル・システムズ・エルエルシー 子宮頸部画像における組織分類方法
JP2013526930A (ja) * 2010-05-03 2013-06-27 エスティーアイ・メディカル・システムズ・エルエルシー 子宮頸部新生物検出および診断のための画像分析
US20180129911A1 (en) * 2016-11-04 2018-05-10 Case Western Reserve University Histomorphometric classifier to predict cardiac failure from whole-slide hematoxylin and eosin stained images

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GR1004180B (el) 2000-03-28 2003-03-11 ����������� ����� ��������� (����) Μεθοδος και συστημα χαρακτηρισμου και χαρτογραφησης αλλοιωσεων των ιστων
US11096602B2 (en) * 2016-07-29 2021-08-24 Stryker European Operations Limited Methods and systems for characterizing tissue of a subject utilizing a machine learning
CN107274386B (zh) 2017-05-18 2019-12-17 深思考人工智能机器人科技(北京)有限公司 一种宫颈细胞液基涂片人工智能辅助阅片系统
RU2654199C1 (ru) * 2017-07-18 2018-05-16 Самсунг Электроникс Ко., Лтд. Сегментация тканей человека на компьютерном изображении
EP3743885A4 (en) * 2018-01-23 2021-10-06 Mobileodt Ltd. AUTOMATED MONITORING OF MEDICAL IMAGING PROCEDURES

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539366A (ja) * 2006-06-05 2009-11-19 フォース フォトニクス リミテッド 組織を特徴づける方法
JP2012505028A (ja) * 2008-10-10 2012-03-01 エスティーアイ・メディカル・システムズ・エルエルシー 子宮頸部画像における組織分類方法
JP2013526930A (ja) * 2010-05-03 2013-06-27 エスティーアイ・メディカル・システムズ・エルエルシー 子宮頸部新生物検出および診断のための画像分析
US20180129911A1 (en) * 2016-11-04 2018-05-10 Case Western Reserve University Histomorphometric classifier to predict cardiac failure from whole-slide hematoxylin and eosin stained images

Also Published As

Publication number Publication date
US11562820B2 (en) 2023-01-24
AU2019311336A1 (en) 2020-11-12
BR112020023281A2 (pt) 2021-02-23
CA3099180A1 (en) 2020-01-30
WO2020021261A1 (en) 2020-01-30
JP6998474B2 (ja) 2022-01-18
EP3776463B1 (en) 2021-08-25
DK3776463T3 (da) 2021-09-27
US20210249118A1 (en) 2021-08-12
US20230126691A1 (en) 2023-04-27
AU2019311336B2 (en) 2021-10-21
ES2900223T3 (es) 2022-03-16
EP3776463A1 (en) 2021-02-17
CA3099180C (en) 2021-07-20
CY1124647T1 (el) 2022-07-22
GB201812050D0 (en) 2018-09-05
RU2765619C1 (ru) 2022-02-01
HUE056228T2 (hu) 2022-02-28
CN112088394A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
JP6998474B2 (ja) 生体組織のコンピュータ分類
Young Park et al. Automated image analysis of digital colposcopy for the detection of cervical neoplasia
US8503747B2 (en) Image analysis for cervical neoplasia detection and diagnosis
WO2018120942A1 (zh) 一种多模型融合自动检测医学图像中病变的系统及方法
Rakotomamonjy et al. Scattering features for lung cancer detection in fibered confocal fluorescence microscopy images
Li et al. Automated analysis of diabetic retinopathy images: principles, recent developments, and emerging trends
WO2022041222A1 (en) Process and system for image classification
Obukhova et al. Automated image analysis in multispectral system for cervical cancer diagnostic
CN114372951A (zh) 基于图像分割卷积神经网络的鼻咽癌定位分割方法和系统
CN113450305B (zh) 医疗图像的处理方法、系统、设备及可读存储介质
Sornapudi et al. Automated cervical digitized histology whole-slide image analysis toolbox
Kaushal et al. An IoMT‐based smart remote monitoring system for healthcare
US20210209755A1 (en) Automatic lesion border selection based on morphology and color features
Vasudeva et al. Classifying Skin Cancer and Acne using CNN
Zhang et al. Evaluation of a new dataset for visual detection of cervical precancerous lesions
JP6710853B2 (ja) プローブ型共焦点レーザー顕微内視鏡画像診断支援装置
Pallavi et al. Automated analysis of cervix images to grade the severity of cancer
Obukhova et al. Image analysis in clinical decision support system
US12002573B2 (en) Computer classification of biological tissue
Guo et al. Anatomical landmark segmentation in uterine cervix images using deep learning
Singh et al. Preprocessing of Medical Images using Deep Learning: A Comprehensive Review
Boschetto et al. Superpixel-based classification of gastric chromoendoscopy images
Gowri et al. An improved classification of MR images for cervical cancer using convolutional neural networks
Liao et al. FSE-Net: feature selection and enhancement network for mammogram classification
Bhattacharjee et al. Detecting Laryngeal Cancer Lesions From Endoscopy Images Using Deep Ensemble Model

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201211

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20201204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220

R150 Certificate of patent or registration of utility model

Ref document number: 6998474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150