JP7458328B2 - マルチ分解能登録を介したマルチサンプル全体スライド画像処理 - Google Patents

マルチ分解能登録を介したマルチサンプル全体スライド画像処理 Download PDF

Info

Publication number
JP7458328B2
JP7458328B2 JP2020565296A JP2020565296A JP7458328B2 JP 7458328 B2 JP7458328 B2 JP 7458328B2 JP 2020565296 A JP2020565296 A JP 2020565296A JP 2020565296 A JP2020565296 A JP 2020565296A JP 7458328 B2 JP7458328 B2 JP 7458328B2
Authority
JP
Japan
Prior art keywords
image
neural network
slide image
data
whole slide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020565296A
Other languages
English (en)
Other versions
JPWO2019226270A5 (ja
JP2021524630A (ja
Inventor
ウィルチ・エリック・ダブリュー
アンドリューシュキン・アレクサンダー
ウィンガード・リチャード・ワイ・ツー
リー・ニゲル
スコルタス・アリスタナ・オリビア
ウィルバー・デビッド・シー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Corista LLC
Original Assignee
Corista LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Corista LLC filed Critical Corista LLC
Publication of JP2021524630A publication Critical patent/JP2021524630A/ja
Publication of JPWO2019226270A5 publication Critical patent/JPWO2019226270A5/ja
Application granted granted Critical
Publication of JP7458328B2 publication Critical patent/JP7458328B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/147Transformations for image registration, e.g. adjusting or mapping for alignment of images using affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Quality & Reliability (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Description

関連出願の相互参照
本願は、2018年5月21日に出願された米国仮特許出願第62/674,368号の利益を主張する。上記の出願の全教示が参照により本明細書に組み込まれる。
デジタルパソロジー組織検体を精査する際、薄く連続的な組織切片から複数のスライドが作成されることがある。これらの切片は、その後、様々な染料で調整及びデジタル化されて全体スライド画像(WSI)が生成されることがある。いくつかの画像間の均質性が欠如しているため、複数のWSIを精査するのは難しい。
いくつかの実施形態では、精査を容易にするために、いくつかのWSIがマルチ分解能登録アルゴリズムでアラインメントされ、処理の向上のために正規化され、専門家ユーザーによって注釈付けされ、画像パッチに分割される。当該画像パッチは、画像における関心領域(ROI)の検出及び分類に有用な特徴を特定するために機械学習(ML)アルゴリズムを訓練するために用いられることがある。当該訓練されたMLモデルは他の画像に適用されて、当該他の画像におけるROIを検出して分類してもよく、これにより、WSIのナビゲートを支援できる。その結果得られるROIがユーザーに提示されると、当該ユーザーは表示層を通じてフィードバックを簡単にナビゲートして提供すると考えられる。
一例示的実施形態では、組織検体のWSIを分析するためのシステムが提供される。当該システムはコンピュータ処理システムを備えてもよい。コンピュータ処理システムは、組織検体のWSIを分析するよう構成されてメモリと通信可能に接続された、少なくとも1つのプロセッサを有する。
複数の染料が付いたスライドの組におけるWSIに対し、WSI用の染料タイプが当該システムによって指定されてもよい。前記染料タイプは、他のシステムからのメタデータ、病理学者若しくは他の特定分野の専門家による手動ラベル付け、又は自動染料検出器のうち1つを通じて当該システムにより指定されてもよい。前記WSIは前処理されて、途中段階のデータが形成されてもよい。これにより、背景から前景組織が分離され、MLモデルのパラメータに基づいて前記WSIデータが正規化される。前記パラメータは、可能な染料並びに解像度又は他のパラメータを含む。
前記WSIは、注釈付け用に提示されてもよい。前記注釈付けは、病理学者又は他の特定分野の専門家によりユーザーインターフェースを介して前記WSIデータの領域に非デフォルト分類ラベルを適用することを伴ってもよい。前記注釈付き領域から画像パッチが作成されてもよく、それぞれの画像パッチが1つのクラスに対応している。分類に有用な特徴を動的に生成するパラメータ適切MLモデルが訓練されてもよい。前記訓練されたMLモデル分類子は注釈付けされていないWSIデータに適用されて、前記染料用の区分の組とパッチパラメータとが生成されてもよい。
前記染料の組からの前記前処理されたWSIは、マルチ分解能登録アルゴリズムを介して登録されてもよい。前記マルチ分解能登録アルゴリズムは、(1)粗い登録アルゴリズムを適用して一般的なアフィン変換行列を生成することと、(2)連続的に小さくなるいくつかのサブセクションにおいて反復登録をして疎らな階層的マルチ分解能ATMピラミッドを生成し、その後前記階層的マルチ分解能ATMピラミッドを、組織及び撮像のばらつきに基づいて最も高い可能な程度に画像間の対応する領域がアラインメントされるように、処理して疎らではないアフィン変換行列フィールド(fATM)を生成することと、を含んでもよい。
複数の染料の組からの前記生成された非デフォルト区分の組は、それぞれの区分の組が染料特異的な訓練されたMLモデルを前記正規化されたWSIデータに適用することで生成されるように、集合させられてもよく、前記集合は前記個々のWSI用に生成された前記fATMを用いて前記非デフォルト区分の置き換えを通じて達成される。
前記染料の組における前記複数のWSIのそれぞれからの前記集合させられたいくつかの非デフォルト区分が相関されてもよい。前記個々のいくつかの区分は、真区分を向上させて偽区分を除外することで相関されてもよく、この結果、所定の染料の組用の1つ以上の非デフォルト分類領域と、前記所定の染料の組の前記1つ以上の非デフォルト分類領域用のメタデータと、が得られる。
ある例示的実施形態では、登録WSIの染料の組と注釈とを提示するためのシステムが提供されてもよい。コンピュータ処理システムは、メモリと通信可能に接続された少なくとも1つのプロセッサを備えてもよい。前記プロセッサは、前記染料の組のそれぞれの画像を複数のビューイングパネルのうち別のビューイングパネルにおいて提示するよう構成されてもよい。前記プロセッサは、体系づけられた表形式の表示において、画像の注釈付き領域の組と対応するメタデータとを前記複数のビューイングパネルと共に表示するよう構成されてもよい。前記プロセッサは、(i)前記体系づけられた表形式の表示における前記注釈付き領域の組のうち1つをクリックすることと、(ii)前記画像の前回算出された登録情報を活用して前記複数のビューイングパネルの全てを同一箇所にナビゲートすることと、をユーザーにとって可能にするよう構成されてもよい。前記プロセッサは、(i)ドラッグとズームとパンニングとを含む、前記複数のビューイングパネルのうち1つ以上におけるナビゲーションイベントを適用することと、(ii)続いて、前記画像の前記前回算出された登録情報を活用して前記登録されたビューイングパネルの全てを同一箇所に移動させることと、をユーザーにとって可能にするよう構成されてもよい。
前記プロセッサは、前記同一箇所への前記複数のビューイングパネルのナビゲーションをできないようにすること、をユーザーにとって可能にするよう構成されてもよい。前記プロセッサは、追加的な注釈付き領域を提供することをユーザーにとって可能にし、前記追加的な注釈付き領域のうち少なくとも1つが、欠落した注釈又は誤分類された注釈を含む不適切に注釈付けられた画像領域のラベル付けに対応している、よう構成されてもよい。
上述の内容は、添付の図面にて図示するように、以下に示す例示的実施形態のより特定の説明から明らかとなるであろう。また、図面においては、同様の参照符号は異なる図面の全体にわたって同一の部分を指すものとする。図面は必ずしも正確な縮尺ではなく、実施形態を説明することに強調が置かれている。
本発明のいくつかの実施形態における例示的システム/方法の実施を示す。 本発明のいくつかの実施形態における例示的システム/方法の前処理ステップの実施を示す。 本発明のいくつかの実施形態における例示的システム/方法の登録ステップの実施を示す。 本発明のいくつかの実施形態における例示的システム/方法のCNN訓練ステップの実施を示す。 本発明のいくつかの実施形態における例示的システム/方法のCNN検証ステップの実施を示す。 本発明のいくつかの実施形態における例示的システム/方法の評価ステップの実施を示す。 本発明のいくつかの実施形態における例示的システム/方法のユーザーインターフェース処理の実施を示す。 本発明のいくつかの実施形態における例示的システム/方法の、CNNのインクリメンタルトレーニングを伴うフィードバック処理の実施を示す。 本発明のいくつかの実施形態における分類結果表示用のユーザーインターフェースを示す。 本発明のいくつかの実施形態を実現可能な例示的デジタル処理環境を示す。 図10におけるコンピュータ/演算ノードの内部構造のブロック図を示す。
いくつかの例示的実施形態を以下に説明する。
全ての特許、公開された出願、及び本願明細書における引例の教示は、それらの全体が参照により組み込まれる。
多くの医用撮像の利用、特に病理学分野における利用において、現状の技術水準では特定の検体の複数のデータサンプルを観察することが求められる。データサンプルはアナログ又はデジタルドメインのいずれで観察してもよい。観察されるサンプルは、1つの検体から複数のガラススライドを生成することで作成される。これらのスライドは当該1つの検体からの薄い連続的な組織切片である。これらの切片は典型的には連続的に生成されるため、一連のスライド内に含まれる形態及び構造は似ているが同一ではない。それぞれのスライド内の組織片及び構造は、木の幹の断面にように不規則なものであり、構造及び組織全体の形状は、あるスライドから次のスライドにかけて変化する。切片は、その後、異なる染料を用いて調整される。異なる染料により、組織内の様々な種類の構造をより良く観察できる。
これらのサンプルをアナログドメインで観察するには、病理学者は精査を行うために、顕微鏡下で異なる光源及び光フィルター(可視光、蛍光、偏光等)を用いてスライドを観察する。
これらのサンプルをデジタルドメインで観察するには、病理学者は全体スライド画像(WSI)を生成する全体スライド撮像装置(デジタライザ)又は顕微鏡搭載カメラのいずれかを用いてスライドを観察する。いずれの場合でも、撮影された画像はコンピュータモニター上に表示される。
アナログ及びデジタルドメインの両方において、現状の技術水準では病理学者がそれぞれのサンプル(スライド又はWSI)を連続で観察することが求められる。病理学者が一方のスライド又は画像上で関心領域を見ている際、病理学者は他のスライド上の対応する領域を手動で突き止めて対応する情報を見なければならない。更には、機械学習(ML)を適用する際又はコンピュータビジョン(CV)アルゴリズムを利用する際等、人間による観察の範囲を越えたタスクにデジタル全体スライド画像(WSI)を用いることは難しい。なぜなら、異なるスライドの画像間で、不規則性があり、直接的な相関性が欠如しているためである。
本発明のいくつかの実施形態では、デジタルパソロジーにおいて検体を効果的に精査するためのワークフロー(方法又は工程)を説明する。また、本発明は、モデルを訓練するために又は訓練されたモデルに対して現状のWSIを推定するためにデータを用いることを可能にすることで、現状のWSIと類似の今後のWSIとの両方に対して追加的な有用性を提供する。これにより、アナログドメインにおいて現状利用可能な又は利用される情報よりも多くの情報をWSIから利用して、プレスクリーニング、ケースレビュー、又は品質検査を支援する。当該ワークフローでは、(サンプルのばらつきと染料及び光源との両方に基づく)漸次異なる構造を含む検体用の画像の組は、前処理され(色及び解像度が正規化され)、所望の特徴について評価され、染料間でアラインメントされ(登録され)、後処理され(相関され)、ユーザーに対して表示されてもよい。前処理は色の正規化を含んでもよい。色の正規化は、異なる機関、スキャナー、及び技術者による染料のばらつきを説明づける。評価(推定とも呼ぶ)は、1つ以上の機械学習(ML)アルゴリズムを介して行われてもよい。染料間での画像アラインメントはマルチ分解能登録アルゴリズムを介して達成されてもよい。後処理は、複数の染料セクションからのML出力を用いて強い検出を向上させて弱い検出を除外することを含んでもよい。これにより、よりきれいでより感知し得る表示がユーザーに対して生成される。追加的ないくつかの実施形態では、MLアルゴリズムを訓練するためのグラウンドトルースを専門家が作成できる工程を説明する。また、専門家は、MLアルゴリズムを再訓練し又は増強させて精度を向上するために、初期評価の結果に対するフィードバックを提供してもよい。
本発明の実施形態において実現される機械学習アルゴリズムの形態は、深層学習、即ち、畳み込みニューラルネットワーク(CNN)又は領域ベースCNN(R-CNN)、サポートベクターマシン(SVM)、オートエンコーダ(AE)、又は浅いニューラルネットワーク(SNN)を含む。

システムの実施
図1は本発明のいくつかの実施形態における一例示的システム/方法の実施を示す。少なくとも2つの全体スライド画像(WSI又はWSIデータ)(101)が当該システムに入力される。
染料タグ付けステージ(110)において、当該システム/方法では、染料タイプを含むメタデータがそれぞれのWSIと関連付けられる。この処理は、ユーザー入力を介して、外部から供給されたメタデータを介して、又は自動染料検出アルゴリズムを用いて行われ、WSIデータの染料タイプを決定できる。3つの全ての方法の結果、WSIデータが当該特定された染料タイプでタグ付け(即ち、ラベル付け)されて、タグ付き画像(119)が生成される。当該システム/方法では、専門家ユーザーによる使用のためのユーザーインターフェース処理ステージ(180)と前処理ステージ(120)との両方に当該タグ付き画像が入力される。
前処理ステージ(図1及び2の120)は、当該システム/方法により、背景除去(123)、色の正規化(125)、及び解像度の正規化(127)、という形で実施され、異なる機関間での染料、技術、手順、及びWSI撮像装置におけるばらつきが説明づけられる。前処理ステージの出力は前処理データ(129)である。当該システム/方法では、前処理データ(129)は、登録ステージ(160)とパッチ生成ステージ(130)若しくは評価ステージ(170)のいずれかとに、データの用途(それぞれ、訓練、及び検証若しくは評価)に依存して、入力される。
登録ステージ(図1及び3の160)は、当該システム/方法により、2つの前処理データ(129)入力を受け取り、まず、サブサンプリングされた画像データを用いて粗いアラインメント(162)を行って、キーポイント又は強度を生成し、これらキーポイント又は強度を分析して粗いATM(163)を生成する、という形で実施される。再帰的でより精細なアラインメントステージ(164)において、当該粗いATMを入力として用いて、当該前処理データの一部分が再帰的にさらに処理されて、次第に精細になるいくつかの精細なサブATM(165)が生成される。当該システムでは、その後、粗いATM(163)と精細なサブATMの組(165)とが組み合わされ、fATM構成ステージ(168)中に1つのATMフィールド(169)が生成される。生成されたATMフィールドは、その後、評価ステージ(170)とユーザーインターフェース処理ステージ(180)との両方で使用される。
パッチ生成ステージ(図1、4、及び5の130)において、当該システム/方法では、前処理データ(129)と専門家データ(189)とが組み合わされ、ラベル付きパッチ(139)が生成される。当該システム/方法では、その後、ラベル付きパッチの組が、ラベル付き訓練データ(142)とラベル付き検証データ(152)とに分離される。
ラベル付き訓練データ(142)は、当該システム/方法により、CNN訓練ステージ(図1及び4の140)内のCNNの訓練ステージ(144)において使用される。CNNの訓練ステージの結果はCNNモデル(149)である。CNNモデル(149)はCNN検証ステージ(150)と評価ステージ(170)との両方で使用される。
ラベル付き検証データ(152)は、当該システム/方法により、CNN検証ステージ(図1及び5の150)内の分類ステージ(172)においてCNNモデル(149)を用いて使用される。分類ステージでは分類結果(173)が生成される。分類結果(173)は、その後、検証ステージ(153)においてラベル付き検証データ(152)内の正しい区分と比較される。これにより検証エラー(159)が生成される。検証エラー(159)は、CNNモデル(149)の有効性を示す。
当該システム/方法では、専門家ユーザーによって精査されていない前処理データ(129)に対して評価ステージ(図1及び6の170)が行われる。まず、訓練されたモデル(149)を用いた分類(172)が前処理データに対して行われ、分類結果(173)が生成される。分類結果は、関心事象がないこと(「デフォルト」区分と名付ける)又は関心事象があること(「非デフォルト」区分と名付ける)のいずれかを示してもよい。これらの分類結果は、染料間の相関ステージ(174)において、同一の染料の組からの他の分類結果と組み合わされ、画像内の局所性に基づいて強い検出が向上し弱い検出がフィルターされる。当該局所性はATMフィールド(169)を用いて決定される。染料間の相関の結果は検出されたROIの組(179)である。ROIの組(179)は、その後、ユーザーインターフェース処理ステージ(180)において用いられる。
ユーザーインターフェース処理ステージ(図1及び7の180)において、当該システム/方法では、ユーザーインターフェース(UI)(182)を通じてタグ付き画像(119)が表示され、ユーザーインターフェース(182)を通じてユーザー入力(185)を注釈(187)という形で受け付ける用意ができる。注釈(187)は、関心事象があるかないか並びに(いくつかの実施形態では)事象のタイプを示す。UIにおける複数のタグ付き画像のナビゲーションは、ATMフィールド(169)を用いて容易になる。これにより、1つの画像上のユーザーの動きに基づく、画像の自動相互ナビゲーションが可能になる。当該注釈の集合は、当該システムの残りに対する専門家入力(189)となる。
また、ユーザーインターフェース処理ステージ(図1及び7の180)において、検出されたROI(179)が表示でき、ATMフィールド(169)を用いた全ての画像上のユーザー選択ROIとの間の同期ナビゲーションが可能になる。これにより、図8に示すように、さらに専門の注釈付けが可能になる。
図8は本発明のいくつかの実施形態における一例示的システム/方法の、CNNのインクリメンタルトレーニングを伴うフィードバック処理の実施を示す。図8においては、当該システム/方法では、検出されたROI(図1の179)が表示UI(182)において表示される。ユーザー入力(185)は追加的な注釈(187)という形をとってもよい。追加的な注釈(187)は、不正確に分類された画像パッチに印を付け、追加的な専門家データ(289)が生成される。当該システム/方法では、修正された注釈を有する画像パッチからなるこの追加的な専門家データ(289)が最初の訓練データ(142)と組み合わされて、より大きな訓練データセット(242)が形成されてもよい。当該システム/方法では、その後、CNNが再訓練(244)されて、新CNNモデル(249)が形成されてもよい。当該システム/方法では、その後、CNN評価ステージ(170)において新CNNモデルが前処理データ(129)に適用され、追加的な新しい又は既存の分類結果を受け取って、ATMフィールド(169)を用いてこれらを相関させてもよい。出力は新しい組の検出されたROI(179)である。この組は、ユーザーインターフェース処理ステージ(180)中に再度表示されてもよい。

染料のタグ付け
本発明のいくつかの実施形態では、図1のステージ110等において、染料検出がWSIデータに対して行われる。いくつかの物理的組織切片は異なる着色剤で染色することができる。これにより、組織における核や膜等の異なる構造要素が、特徴的に着色されたエリアとして視認可能になる。広く用いられる染料(例えば、H&E、トリクローム、PAS、基底膜等)の大半はいくつかの染色剤からなるため、特定の色調範囲を有するWSIが生成される。しかし、同一の染料タイプでも、組織のWSIは、染色工程の詳細と用いられる染色薬品とに依存して研究室間で又は研究室内で大幅に異なることがある。特定のWSIの染色タイプを知っておくことが重要である。なぜなら、染料は組織における異なる構造及び特徴を強調することから、いくつかの分類アルゴリズムは染料特異的であるからである。
いくつかの実施形態では、染料タイプは、外部から供給されたメタデータにより指定されるか、専門家によって判断される。
他の実施形態では、染料タイプが指定されない場合、自動染料検出が用いられて、WSI画像全体から最も可能性の高い染料タイプが決定される。自動染料検出の一実施形態では、SVM(サポートベクターマシン)MLモデルが、専門家によって特定された既知の染料タイプのWSIの組からのカラーヒストグラムデータにおいて訓練される。モデル訓練に用いられる2次元カラーヒストグラムは、背景エリアを除くWSI全体の色相及び彩度情報を特徴づける。この処理は、色相-彩度-明度(HSV)の色空間、赤-緑-青(RGB)の色空間、又は輝度-色差(例えば、YUV)の色空間等の正しい色空間と所望の解像度との両方になるようにWSIを変換することを要求してもよい。事前訓練されたSVMは、その後、当該ヒストグラムデータを用いて未知の染色タイプの新しいWSIを分類する。

前処理
本発明のいくつかの実施形態では、図1及び2のステップ120等において、前処理が画像に対して行われる。前処理により、画像処理及び機械学習での利用のために、複数の機関からの画像を共通のフォーマット、解像度、又は色プロファイルにアラインメントすることができる。個々の機関は、染料、技術、手順、及びWSI撮像装置のばらつきを含む、サンプル処理用の独自のプロトコルを有する。同一のアルゴリズム及び処理パイプラインを通じてこれらの潜在的に異なる画像を処理するために、画像は正規化されてもよい。
正規化は多くの形態をとり得るが、典型的には、色の正規化(所定の染料用の最適な色特性の定義)及び解像度の正規化(画像間の画素毎のミクロン[mpp]単位での不一致の修正)を含んでもよい。
色の正規化は、WSIを前景(組織)と背景とに分割することと、変換を適用して前景を目標の染料色によりぴったりと適合させ且つ背景を白くすることと、を伴う。前景と背景との分離はいくつかの手法で行うことができる。一実施形態では、そのようなアルゴリズムが、画像をグレースケールに変換して一定の閾値より低い又は高い大きなエリア(即ち、ほぼ白色又はほぼ黒色のエリア)を完全な白背景に置き換えることで、明度ベースの分割を介してオフホワイト又はオフブラックの背景を検出する。本ステップはあらゆる背景アーティファクトを除外するのに役立つ。この明るさ閾値処理は、より暗く混みあった背景では常に上手くいくわけではない。他の実施形態では、分割が彩度(saturation)ベースである。前景は、背景が常に組織よりも色の浸透度合いが低いという前提に基づいて分割される。従って、WSIは色相-彩度-明度の色空間に変換され、その後、彩度ヒストグラムの2次導関数の最大値を求めることで彩度の閾値が演算される。その後、それぞれの画素の彩度値を当該閾値と比較することでWSIが処理され、背景/前景マスクが作成される。
一旦背景が標準化されると、吸光度値による画像内の異なる染料成分の分類及び分離或いは色の逆畳み込みを行うことができる。一実施形態では、成分の分類は、SVM、k最近傍(KNN)アルゴリズム、又はいくつかの他の類似ML分類子を用いて実施されてもよい。他の実施形態では、分類は、吸光度値に行列変換を用いて行うことができる[Ruifrok & Johnston,「Quantification of histochemical staining by color deconvolution」(色の逆畳み込みによる組織化学染色の定量化)、Anal Quant Cytol Histol,23:291-299,2001,http://ww.aqch.com/toc/auto_abstract.php?id=15581]。WSIの染料成分が分離された後、所定の色空間(例えば、RGB、HSV等)におけるこれら染料成分の色値が、逆畳み込みされた目標の色成分の色値と一致するように調整される。目標の色は、専門家によって、又は既知の染料タイプの訓練用WSIからの色成分を平均することによって、決定されてもよい。
更なるいくつかの実施形態では、正規化の精度を向上すべく色成分を逆畳み込みするために、色彩情報に加えて、空間情報及び光学密度情報のうち少なくとも1つを含んでもよい。
解像度の正規化は、全ての入力WSIの処理であって、CNNによって要求されるものに基づく許容値の範囲内にある画素毎のミクロン(mpp)単位での解像度を特定する又は生成する処理である。CNNによってその処理及び分類に利用されるいくつかの構造及び特徴は特定の解像度において最も見え易い。そのため、正規化ステップでは、最良の可能な程度に、そのデータを全てのWSIが確実に提供する。
一実施形態では、WSIが複数の解像度を含みこれらの解像度のうち1つがCNNにとって許容できる範囲にある場合、当該解像度が処理に利用される。許容範囲が最高キャプチャ解像度よりも高い解像度のものである場合、最も高いキャプチャ解像度が、CNN用の入力データを生成すべくスケーリングアルゴリズムを用いてスケーリングされて平滑化される。好ましい実施形態では、スケーリングアルゴリズムは共一次内挿法である。許容範囲がWSIの解像度間にある又はキャプチャ解像度よりも低い場合、目標の解像度を超過した次の最も高い解像度が選択されて、データはスケーリングされて平滑化され、CNN用の入力データが生成される。

注釈付け
本発明のいくつかの実施形態では、図1及び7のステップ180等において、図9で指定されたようなインターフェースを用いて注釈付けが画像に対して行われる。機械学習(ML)アルゴリズム用の訓練用の組のデータの作成は多くの手法で達成することができる。訓練用の組を生成する目的のために、外部システムを通じて(即ち、第3者から注釈をインポートして)、自動化された工程(即ち、自動化された組織分割アルゴリズム)を通じて、又は専門家ユーザーによって、1つ以上の注釈が指定される。注釈付けは2つの形態のうち1つ(WSIベース又は領域ベース)をとってもよい。
WSIベースの注釈付けでは、注釈(即ち、ラベル)が画像全体(妥当な場合、背景を除く)に適用される。領域ベースの注釈付けでは、WSIの1つ以上の(楕円又は多角形などの)画定領域と当該領域用の適切な注釈との両方が(どちらの工程が用いられても)指定される。多くの実施形態では、区分の割り当ては2進表現(特定の領域が特定の特徴を表すか表さないかのいずれか)である。更なるいくつかの実施形態では、それぞれの領域に、複数の選択肢(ノーマル、グレード1、グレード2等)からクラスが割り当てられてもよい。
一例示的実施形態では、専門家ユーザーが注釈を用いて、分類子の訓練用の所定の特徴を完全に含むエリアを目立たせることによって領域(例えば、楕円、長方形領域、又はフリーハンド領域)を画定してもよい。注釈付けされたエリアには、その後、当該特定された特徴に基づいてクラスが割り当てられる。専門的に注釈付けされた区分を含まない組織(背景ではない)を含むWSIの任意のサブセクションにはデフォルト区分が割り当てられて、これにより、当該サブセクションが、訓練中に当該システムにより用いられ得る。
他の実施形態では、コンピュータビジョン(CV)アルゴリズムが、(自動化された細胞若しくは核検出、逆畳み込み、又は色フィルタリングなどの)画像分割を容易にするために採用されてもよい。一旦分割が成されると、専門家は、より簡単に、前述のツールのうち1つを用いて領域に印を付け、特定のクラスに属していることを示すことができる。また、専門家は、注釈を手動で調整して、当該領域内にあるクラスに属していない片を除外してもよいし、又は、当該領域のわずか外にあるクラスに属している片を含めてもよい。
他の実施形態では、専門家による注釈は「組織の真中」や「組織の境界線」等のより厳密なカテゴリーに自動的に分類することができ、これにより、今後の訓練の微調整が可能になる。これは、WSIの注釈付けされた部分のカラーヒストグラムを分析することで成されてもよい。例えば、有意な背景色のピークをヒストグラム上で見つけるということは、注釈が「組織の境界線」カテゴリーに属することを意味する。

MLモデルの作成
本発明のいくつかの実施形態では、図1及び4のステップ140等において、訓練を通してMLモデルが作成される。一旦訓練されると、図1及び5のステップ150等において、検証データセットにおいて、MLモデルを検証してその性能を測ることができる。上記で生成された注釈付けされた画像を用いて、次のステップでは今後の分類タスク用のモデルが訓練される。いくつかの実施形態では、当該システムは注釈付けされた画像から一連の画像パッチ(MLアルゴリズムによってより容易に処理可能な、それぞれの画像のより小さな重複するセグメント)を生成し、その後それぞれのパッチに区分を割り当てる。より正確に注釈付けされた画像については、(専門家ユーザーによって特定されたような)特有のクラスの特定の領域が、正確な訓練用パッチを生成するマスクとして用いられ得る。訓練用パッチは、正規化されたソース画像のサブセットを表し得る、又は訓練用画像の全体をカバーしてもよい。
ある例示的実施形態では、訓練用パッチの組をさらに豊富にして拡張するために、訓練用パッチは回転、フリッピング、スケーリング、ノイズ追加、ぼかし等によって改変されて、ML訓練に用いられるデータセットの全体サイズ及び多様性を増加させることもできる。注釈付けされたパッチの組は、その後、訓練データとしてMLアルゴリズムに提供され、モデルが生成される。他の実施形態では、上記で生成された注釈付けされた画像は、一定の基準により「組織の真中」や「組織の境界線」などのグループに分割され得る。それぞれのグループは別のモデルを訓練するために用いられる。
一実施形態では、モデルは、生画像データにおいて動作する畳み込みニューラルネットワーク(CNN)等のMLアルゴリズムを訓練することで生成されてもよい。他のいくつかの実施形態は、サポートベクターマシン(SVM)又は「浅い」ニューラルネットワーク等のMLアルゴリズムを採用する前に前処理ステップを含んでもよい。いくつかの実施形態では、前処理ステップは、画像処理(エッジ検出、鮮鋭化、ぼかし、色操作/逆畳み込み)、コンピュータビジョン、又は特徴検出(SURF、SIFT、BRISK、FREAK、ORB等)アルゴリズムを含んでもよい。
ある例示的実施形態では、CNNは、2つ以上の畳み込み層と、データの次元数を減らして過剰適合を防ぐプーリング層と、ネットワークの非直線性特性を増加させる非直線性層(例えば、正規化線形ユニット[ReLU]層)と、過剰適合を防ぐドロップアウト層と、1つ以上の全結合層と、出力分類層とからなってもよい。ある実施形態では、当該分類層は交差エントロピー損失関数付きのソフトマックス分類子である。一実施形態では、訓練用のCNN最適化アルゴリズムはモーメンタム項付き確率的勾配降下法(SGDM)である。代替の実施形態では、CNN最適化アルゴリズムは適応モーメント推定(ADAM)である。
CNNは、CNNが2つ以上の隠れ層(入力層と出力層との間の層)を含む「深層」ニューラルネットワークであるという点で、基本的な逆伝播ニューラルネットワーク(多層パーセプトロン[MLP]としても知られる)とは異なる。よって、CNNは、訓練の間に分類のための特徴を動的に生成する(即ち、「オンザフライ」)。これは、分類に有用な特徴が明示的に計算される特徴抽出ステップを別途必要とする、特徴ベースの分類子及び基本的な逆伝播ニューラルネットワークを用いる分類子とは区別される。
ある実施形態では、CNNは、上記のように生成されたWSIベースの画像パッチを用いて最初から訓練されてもよい。他の実施形態では、類似又は非類似の画像データにおいて事前訓練されたCNNが転移学習を介してインポートされてもよい。転移学習では、事前訓練されたCNNの層のほとんどが維持され、出力分類層のみがWSI画像パッチデータにおいて再訓練される。
ある実施形態では、注釈(即ち、区分又はラベル)は所望の出力ラベルの組にマッピングされる。この処理中は、異なる注釈ラベル(事前に確立した組の人間読取可能な文字列又は数値のいずれか)が所望の出力ラベルにマッピングされる。一例では、それぞれの異なる入力ラベルが出力ラベルにマッピングされる。他の例では、全ての領域ベースの注釈が「ポジティブ検出」にマッピングされ、注釈付けされていないエリアが「ネガティブ検出」とみなされる。更なる例では、入力ラベルのサブセットがクラスAにマッピングされ、他の組がクラスBにマッピングされ、注釈付けされていないエリアがクラスCにマッピングされてもよい。
ある例示的実施形態では、2つ以上のモデルが、特定のキャプチャ特徴(染料、照明、撮像条件、解像度)、検体特徴(例えば、形状、質感等)、又はマッピングされた出力ラベルに対応して訓練されてもよい。更なる実施形態では、前処理ステップを利用して、別々のモデルが異なる訓練データセットにおいて訓練され得るように、そのような特徴により訓練データを複数の訓練データセットに分割してもよい。この結果、これらの特定の特徴を有する画像パッチに「適合」して当該画像パッチをより正確に分類できるモデルが得られる。
複数のモデルを有する一実施形態では、当該モデルの全てが同時に用いられて、個々のモデルからの結果に基づいて最終ラベルを決定すべく、それぞれのモデルからの最高信頼度スコアを選択する等の後処理ステップを利用して、所定のWSI又はエリアが推定されてもよい。
複数のモデルを有する更なる実施形態では、機械学習モデル、コンピュータビジョン処理、又は特徴検出器を活用する前処理ステップを用いて、特定の領域を推定するための又はWSI全体のための複数のモデルから適切なモデルを選択してもよい。
一旦訓練されると、1つ以上のMLモデルは、続いて、ラベル付けされたデータのサンプルに対してアルゴリズムを試験することで検証することができ、その検証エラー又は訓練精度が決定される。

モデルに対する新しいサンプルの評価(分類)
本発明のいくつかの実施形態では、図1及び6のステップ170等において、新しいサンプルの評価が行われる。分類は、モデルによる新しい画像(訓練に用いられない画像)の評価である。分類ステップの結果、信頼度スコアを有するクラスが当該モデルの訓練中に割り当てられたクラスに基づいて割り当てられる。一般性を保つため、これらのクラスは関心事象がないことを示す「デフォルト」区分及び関心事象があることを示す「非デフォルト」区分(又は「検出」)と呼ばれてもよい。いくつかの例示的実施形態では、非デフォルト区分は、異なるタイプの関心事象を示すサブクラスにさらに分割されてもよい。
一実施形態では、一旦分類モデルがCNN用の訓練データにおいて演算されると、当該分類モデルは「試験」データに適用されて当該試験データが分類されてもよい。訓練工程と同様、正規化されるなどして予め処理された画像パッチが当該モデルに供給されてもよい。分類子用に選択されたパイプラインは所定のサイズのパッチを入力として受け付け、その結果、訓練中に特定されたクラス(2値検出[デフォルト又は非デフォルト区分]又はn-クラス分類子[デフォルト区分又はサブクラスを有する非デフォルト区分]のいずれか)に基づいてそれぞれのパッチが分類されてスコア付与される。
他の実施形態では、試験データは前回注釈付けされたものであってもよく、分類処理の結果は試験データ注釈と比較されて、モデルがどのくらい正確なのかが判定されてもよい。ある実施形態では、2値分類(即ち、検出)の問題において、事象(特徴)がある(ポジティブ又は非デフォルト区分)又はない(ネガティブ又はデフォルト区分)ことが示されてもよい。当該問題は、感度(正しい正のパーセンテージ)、特定性(正しい負のパーセンテージ)、又はF1スコア等の標準メトリックを介して評価されてもよい。
更なる実施形態では、不正確に分類された画像パッチが、集められてその後当該システム内にフィードバックされ、インクリメンタルトレーニングを介してより正確なモデルが作成されてもよい。追加の不正確に分類された画像パッチは最初の訓練用の組に追加されて、より大きな組み合わされた訓練用の組が形成されてもよい。一例示的実施形態では、CNNは組み合わされた訓練用の組において最初から再訓練される。他の例示的実施形態では、最初のCNNの層のほとんどが維持され、出力分類層が転移学習を介して組み合わされた訓練用の組において増加的に訓練される。代替の実施形態では、「新しい」訓練データ(不正確に分類された画像パッチ)においてのみ出力分類層を再訓練することで、転移学習が最初のCNNに適用される。

登録
本発明のいくつかの実施形態では、図1及び3のステップ160等において、前処理されたWSIに対して登録が行われる。WSIの対を登録する目的は、一方の登録WSI上の任意のポイントを他方の登録WSI上の対応するポイントに置き換ることを可能にするためである。この文脈における「対応する」は、最初の3D組織サンプル内の同一の(又はほぼ同一の)物理的な位置に属していることを意味する。これは、WSI全体をカバーする、空間的に分散されたアフィン変換の組を用いて達成される。アフィン変換行列(ATM)は、第1画像上の任意のポイントを第2画像上のポイントに相関させる簡単な数学的手法を提供する。
最低でも、全体画像間のアラインメントを記述する1つの粗いATMを計算できる。これは、比較されたWSIにおける不規則性の高い組織を相関させるのに特に有用である。粗いATMは、主に、組織をアラインメントしてオフセット(スライド上の組織の水平及び鉛直配置)、回転(組織の時計回り又は反時計回りの回転、+/-180度)、及び反転(1つの検体がスライド上に配置される際にひっくり返された場合)を説明づける。
ATMの生成は、少なくとも3つの一致するキーポイント対を特定してその後特定されたキーポイント対を用いて等式の線形系を解くことを介して達成できる。キーポイントは画像内の異なる位置であり、通常はWSIにおける組織の隅又は汚れ等の視認可能な特徴に依拠する。それぞれのキーポイント対において、一方のキーポイントは第1WSIに属し、第2キーポイントは第2WSI上の一致する位置を言う。例えば、第1染色画像内の細胞の特徴(組織の縁又は赤血球の集塊等)におけるキーポイントは第2画像内の同一の細胞の特徴に対応するべきである。実世界のWSIでは、通常は4つ以上の特定された一致するキーポイント対が存在するため、特有の数学的方法が用いられて、全てのキーポイントの一致を最も良く満たすATMが見つけられる。
通常は、これらのキーポイントは特徴検出アルゴリズムを用いて特定される。一実施形態では、ORB(方向付きFASTと回転BRIEF)アルゴリズムが用いられてキーポイントが検出される。当該キーポイントは典型的には画像内の隅又は縁である。キーポイント同士を、評価基準付きマッチングアルゴリズムを用いて一致させてもよい。一実施形態では、このアルゴリズムはブルートフォースマッチャー(Brute-Force Matcher)であり、評価距離はハミング距離である。ハミング距離は2つの文字列間の差の指標である。次に、キーポイントの一致は一貫性について分析され、その後不適当な又は不十分に相関した一致は除外される。残りの一致のATM候補が見つけられ、一貫性についてさらにフィルターされ、その後平均されることで、その領域用の単一の改良されたATMを得てもよい。
最も相関する一致を平均して見つける処理は平均化アルゴリズムを介して行われる。一実施形態では、平均化アルゴリズムは、動的に構成されたパラメータを用いて反復的に適用されて目標の相関を達成する平均シフトクラスタリングアルゴリズムである。このクラスタリングアルゴリズムは、相関されたキーポイントの集塊を見つけるべく変化する集塊サイズパラメータを用いて数回実行される。当該集塊は、キーポイントの一致のほとんどを特徴づけるのに十分な大きさであり、同時に、誤った一致キーポイントを除外するのに十分なコンパクトさである。
粗いATMからの情報であってWSIの一般的な置き換え及び回転についての情報を用いて、次第に精細になるいくつかのATMが、画像のより小さなサブセクションについて算出されて精度を向上できる。その際、WSIがエリアの「グリッド」によって分割されるようにする。それぞれのエリアには異なるATMがある。精細なATMは、粗いATMよりもアラインメントの精度が高いが、全体画像のより小さなサブセクションの中でしか有効でない。より精細なATMが見つけられる。なぜなら、登録されている画像が生体由来のものであり、関係する物理的組織が技術者によって切断、染色、及び設定されるからである。よって、粗いWSI全体のATMにとって良好な精度を維持しながらキャプチャすることが困難であると思われる画像間で、様々な不一致が存在し得る。画像上には、位置ずれ、しわ、及び他の処理におけるアーティファクトが存在する可能性がある。また、組織のセクションが3次元組織の2次元切片であるため、サイズ、向き、及びいくつかの特徴の存在において差が生じ得る。WSI間で比較される小さな組織のサブセクションにより、それらの間の良好な一致の可能性が増加するため、一致の精度が向上する。
好ましい実施形態では、マルチ分解能登録アルゴリズムが用いられて異なるステージで精細なATMが提供される。画像は、追加的な精度が計算できなくなるまで又は最大量の細区分が達成されるまで、より小さなサイズの追加的なサブセクションに再帰的に分割でき、前回算出されたATMに基づいてそれぞれのサブセクション用に次第に精細になるいくつかのATMが生成される。一旦決定されると、これらの局所的ATMは漸次正確且つ疎らになるピラミッド状のATM階層を有する。ピラミッド状のATM階層では、より高い精度の精細なATMが画像のより小さなサブセクションを表す。
WSIのいくつかのエリアについて、当該エリアが検出可能な特徴(例えば、白背景、組織の足りない箇所)を何も含まない可能性がある。これらのエリアでは、キーポイントを見つけることはできないため、ATMを計算することはできない。一実施形態では、WSIのそのような特徴のないサブセクションについて、局所的ATMが前回演算された付近のATMからの近似により演算される。他の実施形態では、これらのエリア用のATMは、より大きなエリア用に算出されたより精度の低いATMから又は粗いWSI全体のATMから取り出される。
任意の領域用の最も正確なATMを1つの構造に組み合わせることで、ATMフィールド(fATM)が作成される。
fATMを作成する一実施形態では、全体画像を表しているが図3のステップ162等において多くの要素によってサブサンプリングされた低解像度画像を用いて、粗いATMが最初に生成される。一旦粗いATMが生成されると、当該ATMの領域は小領域に分割され、図3のステップ164のように粗いATM内のそれぞれの小領域に対して精細なATMが演算される。領域用の精細なATMは評価基準に基づいて評価されて、当該精細なATMが当該領域に対して粗いATMを置き換えるのに十分な質のものかどうかが判定される。評価基準に基づいて当該精細なATMがより正確であると判断された場合、図3のステップ168のように、当該精細なATMがfATM内に挿入され、その後、当該領域の小領域用のより精細なATMを生成するための基準として用いることができる。
fATMを作成する他の実施形態では、2つのWSIの基本的なアラインメントを提供すべく、第1ステップとしてキーポイントベースの方法を介してより粗いATMが算出される。その後、パラメトリックな強度ベースの登録アルゴリズムが適用されて粗い登録精度を高める。このアルゴリズムはキーポイントを見つける代わりに2つの画像の画素を比較し、定義された類似度メトリックに基づいて比較できるエリアをマッチアップして反復性確率的最適化処理で画像における差を評価する。このアルゴリズムは、比較されたエリアの初期配置がかなり良好であることを要求し、ひいては、キーポイントWSI登録を第1ステップとして要求する。
キーポイントベースの登録と強度ベースの登録との両方がWSIの漸次より小さくなるいくつかのエリアにおいてより高い解像度で繰り返されてもよい。当該繰り返しは最適な登録を行うために必要である。登録の質の測定はいくつかの手法で行うことができる。評価基準の一実施形態では、キーポイントベースの登録は標準偏差と検出されたキーポイントの数とによって評価されてもよい。強度ベースの登録では、第2画像は歪曲されて登録において第1画像を適合させ、新しい結果画像が生成される。当該結果画像は第1画像上に重ねて、登録の質を評価できる。非重複エリアが大きいほど質の低い登録であることが示唆される。

相関(後処理)
本発明のいくつかの実施形態では、図6のステップ172等において、相関が分類結果に対して行われる。ある実施形態では、様々な分類子からの出力が、多数の相関技術を用いて組み合わされて評価されてもよい。複数の入力セット及び複数のモデルからの出力も組み合わされて、特徴検出を向上させて誤検出を減らしてもよい。
相関ステップの出力はROIの組であり、そのそれぞれが区分及び関連付けられた信頼性メトリック(又はスコア)を有してもよい。
そのような相関の一実施形態では、分類及び得点結果が組織WSIの数個(例えば、4個)の染料とは別に得られてもよい。染色毎に検出される特徴結果が、特徴位置を揃えるために、信頼度スコアによって閾値処理されて、WSI間登録を用いて共に組み合わされてもよい。結果は、要求された数の染料WSIよりも少ない染料WSIにおけるポジティブ検出を伴う空間的位置の除外により、さらにフィルター除去されてもよい。残りのポジティブ分類データ及びスコアはスコアヒートマップに合流させてもよい。スコアヒートマップから、局所的組み合わせスコアの最高値が見つかり、当該最高値は新しく見つかったROIの中心になる。分類データは、さらに、追加的なフィルタリング後に用いられて、見つかった局所的最高値の周囲に集まり、当該新しく見つかったROIのサイズを定義する集塊が作成されてもよい。
ポジティブに分類されたエリアの局所性を相関するのに利用されるWSI対の登録が向上した分類モデル及び/又は可能性として複数である染色されたWSIからの組み合わされた分類結果を用いた結果、1つの画像を用いる場合と比較して検出特徴が有意に向上する。

結果表示とフィードバックループ
本発明のいくつかの実施形態では、図1及び7のステップ180等において、図9で指定されたインターフェース等のインターフェースを用いて上記のステップの結果がユーザーに対して表示される。このユーザーインターフェース表示の基本的な例が図9に示されている。本項の参照番号は図9を参照する。ある実施形態では、CNN評価アルゴリズムの結果及びWSIを精査するためのソフトウェアアプリケーションがユーザーに対して提示される。ツールは一連のビューポート(300)とサイドバー(320)とからなる。ビューポートはそれぞれ、異なって染色された登録WSIのビューを表示する(即ち、ビューポートはそれぞれのWSI上の類似の位置を表示する)。サイドバーは、様々なツールを提供できるが、結果の精査中は、サイドバーは、検出されて分類されたROIを表す一連のサムネイル(321)を提示する。それぞれの結果はまた、更なる詳細(位置以外)をメタデータ(例えば、スコア、区分)(323)として含んでもよい。この結果はまた、スライド自身に重ねられた注釈としてユーザーに視認可能に提示されてもよい。一実施形態では、結果は、分類スコア、最も強い区分付きのMLアルゴリズム、又はn-クラス分類の場合の分類カテゴリー(即ち、出力ラベル)等の結果特性に基づいて異なって着色され又はラベル付けられてもよい。さらに、n-クラス分類では、それぞれの個々のクラスは、当該クラスがユーザーによって視認可能かどうかについて別々に制御されてもよい。これにより、1つの出力区分、全ての出力区分、又は所望の組み合わせを、ユーザーの目に見えるようにしてもよい。
ある例示的実施形態では、結果サムネイルは、クリックされると、対応するビューポートを選択されサムネイルによって示された位置にナビゲートしてもよい。登録されたマルチサンプルWSIの場合は、インターフェースも、WSI登録によって生成された最も良く利用できるATMに基づいて、それぞれのビューポートを対応する染色されたスライド上の同一の又は類似の位置にナビゲートしてもよい。パンニング又はズームされる際、スライドビューアのいずれかをクリックすると、登録により生成された最も良く利用できるATMの適用によって、全ての他のスライドビューアが同一の位置にナビゲートされる。これにより、全てのWSI間での組織の同一のセクションがユーザーによって確実に同時に視認可能になる。
好ましい実施形態では、モデルによって生成された結果の区分にユーザーが同意しない場合、ユーザーは結果サムネイル(例えば、偽陽性、誤った分類)の隣のボタンをクリックすることで区分を修正できる。修正された区分及び結果のサブ画像は、その後、モデルを向上すべく今後の訓練データとして用いられてもよい。ユーザーはまた、スライドの領域を追加で注釈付けて分類してもよい。当該領域は、モデルによって特定されなかったモデルの区分に属する。修正された結果及び追加された区分は、その後、再訓練を介してモデルを向上するべく当該システムによって用いることができる。

デジタル処理環境
図10は本発明のある実施形態に係るWSI処理システムの例示的実施を示す。WSI処理システムは、複数のWSIの精査を可能にし、ソフトウェア、ファームウェア、又はハードウェア環境において実施されてもよい。図10は、本発明のいくつかの実施形態を実現可能な、1つのそのような例示的デジタル処理環境を示す。クライアントコンピュータ/装置50及びサーバコンピュータ/装置60(又はクラウドネットワーク70)は、アプリケーションプログラム等を実行する処理、記憶、及び入力/出力装置を提供する。他のいくつかの実施形態では、クライアントコンピュータ/装置50は、サーバコンピュータ/装置60に入力を伝達するために、物理的な境界を横切ってサーバコンピュータ/装置60のプロセッサに(例えば、USB接続を介して)ローカル接続される。
クライアントコンピュータ(複数可)/装置50は(例えば、インターフェース107を介して)通信ネットワーク70によっても、他のクライアント装置/処理50とサーバコンピュータ(複数可)60とを含む他の演算装置にリンクできる。通信ネットワーク70は、現在各プロトコル(TCP/IP、Bluetooth等)を用いて互いに通信するリモートアクセスネットワーク、グローバルネットワーク(例えば、インターネット)、クラウド演算サーバ又はサービス、世界規模のコンピュータの集合、ローカルエリア又は広域ネットワーク、及びゲートウェイの一部であり得る。他の電子装置/コンピュータネットワークアーキテクチャは好適である。
クライアントコンピュータ/装置50は、WSIデータ(例えば、サンプルのばらつきと染料及び光源との両方に基づく漸次異なる構造を含む検体用の画像の組)を入力する特徴を備えてもよい。クライアントコンピュータ/装置50はまた、ユーザーインターフェースツールを提示してもよい。ユーザーインターフェースツールは、異なって染色された登録WSIのビューを表示する一連のビューポートと、様々なツールを提供して、検出されて分類されたROIを表す一連のサムネイル提示できるサイドバーと、からなる。サーバコンピュータ60はユーザーコンピュータ装置であってもよい。当該ユーザーコンピュータ装置は、クライアントコンピュータ/装置50から入力WSIデータを受信して、当該WSIデータに対して染料検出及び画像のタグ付けを行ってもよい。その後、図1~9に示すように、サーバコンピュータ60によってタグ付き画像は前処理され(色及び解像度が正規化され)、CNN訓練され、所望の特徴について評価され、染料間でアラインメントされ(登録され)、後処理され(相関され)、ユーザーインターフェースツールを介してユーザーに表示されてもよい。これらサーバコンピュータは異なるサーバコンピュータでなくてもよく、クラウドネットワークの一部であってもよい。
図11は、図10の処理環境におけるコンピュータ/演算ノード(例えば、クライアントプロセッサ/装置50又はサーバコンピュータ60)の内部構造のブロック図である。当該コンピュータ/演算ノードは、音声、画像、動画、又はデータ信号情報の処理を容易にするのに用いられてもよい。図11のそれぞれのコンピュータ50、60はシステムバス79を含む。システムバス79において、バスは、コンピュータ又は処理システムの構成要素間でのデータ転送に用いられるハードウェア回線の集合である。システムバス79は、本質的に、コンピュータシステムの異なる要素(例えば、プロセッサ、ディスク記憶装置、メモリ、入力/出力ポート、ネットワークポート等)を接続する、当該要素間で情報の転送を可能にする共有のコンジットである。
システムバス79には、様々な入力及び出力装置(例えば、キーボード、マウス、ホイール、ボタン、タッチ画面、ディスプレイ、プリンタ、スピーカ、音声制御等)をコンピュータ50、60に接続するためのI/Oデバイスインターフェース82が取り付けられる。ネットワークインターフェース86により、コンピュータは、ネットワーク(例えば、図10のネットワーク70)に取り付けられる、センサ、カメラ、レーザ、磁力計等の様々な他の装置に接続できる。メモリ90は、本発明の実施形態を実現するために用いられるコンピュータソフトウェア指示92及びデータ94(例えば、上述のコード)のための揮発性記憶を提供する。本明細書に記載されるWSI処理システムのソフトウェア構成要素92、94は、任意の高次オブジェクト指向プログラミング言語を含む任意のプログラミング言語を用いて構成されてもよい。
ある例示的モバイル実施では、本発明のモバイルエージェントの実施が提供されてもよい。クライアント-サーバ環境が、スライド画像のナビゲーションのキャプチャリングのモバイル構成を可能にするのに用いられ得る。当該クライアント-サーバ環境は、例えば、WSIデータをテザリングするためのXMPPプロトコルを用い得る。サーバ60は、要求があり次第、移動電話機を介してコマンドを発し得る。WSI処理システムの一定の構成要素にアクセスするためのモバイルユーザーインターフェースフレームワークはXHP、Javelin、及びWURFLに基づいていてもよい。OS X、iOS、及びアンドロイド(登録商標)オペレーティングシステムとそれらの各々のAPIとのための別の例示的モバイル実施では、Cocoa及びCocoa Touchが、Smalltalk型のメッセージングをCプログラミング言語に追加するオブジェクティブC又は任意の他の高次プログラミング言語を利用して、クライアント側の構成要素115を実現するために用いられてもよい。
ディスク記憶装置95は、スライドナビゲーションシステムのある実施形態を実現するために用いられるコンピュータソフトウェア指示92及びデータ94用の非揮発性記憶を提供する。当該システムは、サーバコンピュータ60にアクセス可能なディスク記憶装置を備えてもよい。サーバコンピュータ(例えば、ユーザー演算装置)又はクライアントコンピュータ(例えば、センサ)は、画像の精査による、画像及びモデル等の情報を記憶してもよい。中央演算処理装置84もシステムバス79に取り付けられ、コンピュータ指示の実行を可能にする。
一実施形態では、プロセッサルーチン92及びデータ94は、WSI処理システムのためのソフトウェア指示の少なくとも一部を提供するコンピュータ読み取り可能な媒体(例えば、1つ以上のDVD-ROM、CD-ROM、ディスケット、テープ等の取り外し可能な記憶媒体)を含む、コンピュータプログラムプロダクト(総じて92で参照する)である。WSI処理システムの各々のソフトウェア構成要素の実行インスタンスが、当該分野で周知のように、コンピュータプログラムプロダクト92として実施されてもよく、任意の好適なソフトウェアインストール手順によってインストールできる。他の実施形態では、ソフトウェア指示の少なくとも一部が、例えば、(モバイル機器又は他の演算装置から実行される)アプリを通じて又はブラウザSSLセッションを介して、ケーブル、通信、及び/又はワイヤレス接続によりダウンロードされてもよい。他のいくつかの実施形態では、本発明のプログラムは、伝播媒体(例えば、無線波、赤外線波、レーザ波、音波、又はインターネット等のグローバルネットワーク若しくは他のネットワーク(複数可)を伝わる電波)上の伝播信号において具現化されるコンピュータプログラム伝播信号プロダクト107である。このようなキャリア媒体又は信号は、スライドナビゲーションシステムのルーチン/プログラム92のためのソフトウェア指示の少なくとも一部を提供する。
代替のいくつかの実施形態では、伝播信号は、伝播媒体を伝播されるデジタル信号又はアナログ搬送波である。例えば、伝播信号は、グローバルネットワーク(例えば、インターネット)、電気通信ネットワーク、又は他のネットワーク上を伝播するデジタル化信号であってもよい。一実施形態では、伝播信号は、数ミリ秒、数秒、数分、又はこれより長い期間にわたってネットワーク上をパケットで送信されるソフトウェアアプリケーションのための指示等の、ある期間にわたって伝播媒体上を送信される信号である。他の実施形態では、コンピュータプログラムプロダクト92のコンピュータ読み取り可能な媒体は、コンピュータプログラム伝播信号プロダクトについて上述したように、伝播媒体を受信し伝播媒体で具現化された伝播信号を識別する等によってコンピュータシステム50が受信及び読み取りできる伝播媒体である。
一般的に言えば、用語「キャリア媒体」又は一時的なキャリアは、前述の一時的な信号、伝播信号、伝播媒体、記憶媒体等を包含する。
他のいくつかの実施形態では、プログラムプロダクト92は、いわゆるSoftware as a Service(SaaS)又はエンドユーザーをサポートする他のインストール又は通信として実施されてもよい。
いくつかの例示的実施形態が具体的に示されて説明されたが、添付の請求の範囲に包含される実施形態の範囲を逸脱することなく、さまざまな形および詳細の変更がなされ得ることが、当業者によって理解されるであろう。
尚、本明細書に示される図は例示的データ/実行経路及び構成要素を示しているが、当業者であれば、動作、配置、及びこれらの各々の構成要素への/からのデータの流れは処理中の医用画像データの実施とタイプとに依存して変化し得る、と理解するであろう。従って、データモジュール/データ経路の任意の配置が用いられ得る。
本発明はそのいくつかの例示的実施形態を参照して具体的に示されて説明されたが、添付の請求の範囲に包含される本発明の範囲を逸脱することなく、さまざまな形および詳細の変更がなされ得ることが、当業者によって理解されるであろう。
一例示的実施では、ブロックチェーンシステムが用いられて、マルチ分解能登録アルゴリズムの染料の組からの前処理されたWSIの登録の記録を容易にしてもよい。注釈付けは非デフォルト分類ラベルをWSIデータの領域に適用することを伴い、例えば、さらにブロックチェーン実施でのデータブロックにおいて記録されてもよい。このように、前処理されたWSIの登録及び注釈付けはブロックチェーン分散型台帳に記録されてもよく、これによりデータ保全性の維持を容易にし得る。さらに、スマートコントラクトが用いられて、それぞれのWSIへのアクセスを制御し潜在的に異なるユーザー間のアクセスを容易にし得る。
なお、本発明は、態様として以下の内容を含む。
〔態様1〕
組織検体の全体スライド画像(WSI)を分析するためのシステムであって、
メモリと通信可能に接続された少なくとも1つのプロセッサであって、
複数の染料が付いたスライドの組におけるそれぞれのWSIに対し、
他のシステムからのメタデータ、病理学者若しくは他の特定分野の専門家による手動ラベル付け、又は自動染料検出器のうち1つを通じてWSI用の染料タイプを指定して、
前記WSIを前処理して、背景から前景組織を分離して機械学習(ML)モデルのパラメータに基づいて前記WSIデータを正規化し、前記パラメータは、可能な染料並びに解像度又は他のパラメータを含んでおり、
病理学者又は他の特定分野の専門家によりユーザーインターフェースを介して前記WSIデータの領域に非デフォルト分類ラベルを適用することを伴う注釈付け用に、前記WSIデータを提示し、
前記注釈付き領域から画像パッチを作成し、それぞれの画像パッチが1つのクラスに対応しており、
分類に有用な特徴を動的に生成するパラメータ適切MLモデルを訓練し、
前記訓練されたMLモデル分類子を注釈付けされていないWSIデータに適用して、前記染料用の区分の組とパッチパラメータとを生成し、
マルチ分解能登録アルゴリズムを介して前記染料の組からの前記前処理されたWSIを登録し、前記マルチ分解能登録アルゴリズムは、(1)粗い登録アルゴリズムを適用して一般的なアフィン変換行列を生成することと、(2)連続的に小さくなるいくつかのサブセクションにおいて反復登録をして疎らな階層的マルチ分解能ATMピラミッドを生成し、その後前記階層的マルチ分解能ATMピラミッドを、組織及び撮像のばらつきに基づいて最も高い可能な程度に画像間の対応する領域がアラインメントされるように、処理して疎らではないアフィン変換行列フィールド(fATM)を生成することと、を含んでおり、
複数の染料の組からの前記生成された非デフォルト区分の組を集合させ、それぞれの区分の組が染料特異的な訓練されたMLモデルを前記正規化されたWSIデータに適用することで生成され、前記集合は前記個々のWSI用に生成された前記fATMを用いて前記非デフォルト区分の置き換えを通じて達成され、
前記染料の組における前記複数のWSIのそれぞれからの前記集合させられたいくつかの非デフォルト区分を相関させ、その後真区分を向上させて偽区分を除外することで前記個々のいくつかの区分を相関させ、この結果、所定の染料の組用の1つ以上の非デフォルト分類領域と、前記所定の染料の組の前記1つ以上の非デフォルト分類領域用のメタデータと、が得られる、
よう構成された少なくとも1つのプロセッサ、
を備えるシステム。
〔態様2〕
登録WSIの染料の組と注釈とを提示するためのシステムであって、
メモリと通信可能に接続された少なくとも1つのプロセッサであって、
前記染料の組のそれぞれの画像を複数のビューイングパネルのうち別のビューイングパネルにおいて提示し、
体系づけられた表形式の表示において、画像の注釈付き領域の組と対応するメタデータとを前記複数のビューイングパネルと共に表示し、
(i)前記体系づけられた表形式の表示における前記注釈付き領域の組のうち1つをクリックすることと、(ii)前記画像の前回算出された登録情報を活用して前記複数のビューイングパネルの全てを同一箇所にナビゲートすることと、をユーザーにとって可能にし、
(i)ドラッグとズームとパンニングとを含む、前記複数のビューイングパネルのうち1つ以上におけるナビゲーションイベントを適用することと、(ii)続いて、前記画像の前記前回算出された登録情報を活用して前記登録されたビューイングパネルの全てを同一箇所に移動させることと、をユーザーにとって可能にし、
前記同一箇所への前記複数のビューイングパネルのナビゲーションをできないようにすること、をユーザーにとって可能にし、
追加的な注釈付き領域を提供することをユーザーにとって可能にし、前記追加的な注釈付き領域のうち少なくとも1つが、欠落した注釈又は誤分類された注釈を含む不適切に注釈付けられた画像領域のラベル付けに対応している、
よう構成された少なくとも1つのプロセッサ、
を備えるシステム。
〔態様3〕
態様1に記載のシステムにおいて、本発明の実施形態において実現される機械学習アルゴリズムは、深層学習、即ち、畳み込みニューラルネットワーク(CNN)又は領域ベースCNN(R-CNN)、サポートベクターマシン(SVM)、オートエンコーダ(AE)、又は浅いニューラルネットワーク(SNN)を含む、システム。
〔態様4〕
態様1に記載のシステムにおいて、前記入力WSIは、色プロファイル、色ヒストグラム、又は他の区別特徴に基づき機械学習アルゴリズムであるSVMを用いて染料に関して分離又は分類される、システム。
〔態様5〕
態様1に記載のシステムにおいて、前記背景は前処理ステップとして前記WSI及び対応するパッチから除外され、明度ベースの比較又は彩度ベースの比較のうち1つ以上を用いて前景と背景とが区別される、システム。
〔態様6〕
態様1に記載のシステムにおいて、前記注釈は、前記システムにおいて専門の注釈者によって作成される代わりに、前記モデルの訓練又は評価のために、前記システム内にインポートされて機械学習モデルによる使用のための適切なフォーマットに変換される、システム。
〔態様7〕
態様1に記載のシステムにおいて、前記注釈は専門の注釈者によってインポート又は指定され、前記注釈ラベルが、前記WSI全体に対して、ひいては前記WSIにおける前記組織の全てに対して、全てのラベルが適用されるWSIベース、又は、指定の前記領域及び前記ラベルを含む1つ又は複数の注釈付けされたセクションが前記WSIにおける特定の特徴を区別するために適用される領域ベース、である、システム。
〔態様8〕
態様1に記載のシステムにおいて、前記WSIは、専門の注釈者による注釈の拡張を目的として又は訓練用の注釈ソースとして、アルゴリズムを用いて前処理され、前記画像を分割、事前注釈付け、又は注釈付けできる、システム。
〔態様9〕
態様1に記載のシステムにおいて、CNNの訓練を意図した、WSIからのパッチ又は領域のコホートがスケーリング、回転、フリッピング、ノイズ追加、ぼかし、伸張、又はスキューイングを含む少なくとも1つの処理技術を用いて増強され、訓練に用いられるデータセットの全体サイズ及び多様性が増加する、システム。
〔態様10〕
態様1に記載のシステムにおいて、CNNが前記システムの外部の画像データの組において事前訓練されて転移学習を介して前記システム内にインポートされ、前記転移学習では、前記事前訓練されたCNNの層の大部分が維持され、出力分類層のみが前記システムのWSI画像パッチデータにおいて再訓練される、システム。
〔態様11〕
態様1に記載のシステムにおいて、モデル用の訓練工程への入力として提供されるいくつかの前記注釈ラベルが前処理されて、前記複数の入力がユーザー指定の出力ラベルの組にマッピングされ、1つ以上の入力ラベルが1つの出力ラベルにマッピングされる、システム。
〔態様12〕
態様1に記載のシステムにおいて、2つ以上のCNNモデルが訓練されてもよく、それぞれのモデルが特定のデータ特徴に対応しており、この結果、これらの特定の特徴を有する画像パッチにモデルが適合し、この結果、前記2つ以上のCNNモデルを用いて前記画像パッチがより正確に分類され、
モデルのコホートが新しいWSI画像における推定のために用いられ、その結果得られるスコアは、その後、後処理を通じて評価されて最終区分が決定される、システム。
〔態様13〕
態様1に記載のシステムにおいて、2つ以上のCNNモデルが訓練されてもよく、それぞれのモデルが特定のデータ特徴に対応しており、この結果、これらの特定の特徴を有する画像パッチにモデルが適合し、この結果、前記2つ以上のCNNモデルを用いて前記画像パッチがより正確に分類され、
前処理が用いられて、どのモデルを推定に用いるかが、前記WSI全体に対して又は領域ごとに決定され、最終結果が前記選択されたモデルによる推定を介して返される、システム。
〔態様14〕
態様1に記載のシステムにおいて、前記WSIのうち不正確に分類された画像パッチとして識別された選択領域が、前記不正確に分類された画像パッチを最初の訓練用の組に追加してより大きな組み合わされた訓練用の組を形成することにより、又は、修正された画像パッチに有利なデータの組における再訓練により、集められて前記システム内にフィードバックされ、インクリメンタルトレーニングを介してより正確なモデルが作成される、システム。
〔態様15〕
態様1に記載のシステムにおいて、前記粗い及び/又は精細な登録アルゴリズムはキーポイントの一致、ORB(Oriented FAST and Rotated BRIEF)の特徴、又は強度ベースの一致から前記ユーザー又はシステム処理によって指定される、システム。
〔態様16〕
態様15に記載のシステムにおいて、漸次高くなる解像度(増加するディテール)の登録が、既存の登録領域のサブセクションへの分割と前記サブセクションにおける登録アルゴリズムの処理と、によって算出され、
大きなセクションの登録は多数の前記サブセクションからなり、前記大きなセクションの登録は前記漸次高くなる解像度(増加するディテール)の登録用の初期ガイドとして用いられる、システム。
〔態様17〕
態様1に記載のシステムにおいて、CNNからの出力は、信頼度スコアの閾値処理を含む少なくとも1つのアルゴリズムを適用することで後処理され、染料間登録とフィルタリングとスコアヒートマップの作成とにより検出が組み合わされる、システム。
〔態様18〕
態様2に記載のシステムにおいて、インターフェースにより、前記ユーザーは、選択的表示用の前記出力ラベル(又は注釈)のうち少なくとも1つを選択できる、システム。
〔態様19〕
態様2に記載のシステムにおいて、インターフェースにより、前記ユーザーは、前記ユーザーインターフェースにおいて誤検出又は欠落した検出を注釈付けできる、システム。
〔態様20〕
態様19に記載のシステムにおいて、前記インターフェースにより、前記ユーザーは、CNNの追加的な訓練を生じさせ、前記追加的な訓練中に注釈の組の使用が強いられて、前記ユーザーによって修正された注釈を含めることができる、システム。

Claims (16)

  1. 組織検体の全体スライド画像を分析するためのシステムであって、
    メモリと通信可能に接続された少なくとも1つのプロセッサであって、
    複数の染料が付いたスライドの集合におけるそれぞれの全体スライド画像に対し、
    他のシステムからのメタデータ、病理学者若しくは他の特定分野の専門家による手動ラベル付け、又は自動染料検出器のうち1つを通じて全体スライド画像用の染料タイプを指定して、
    前記全体スライド画像を前処理して、背景から前景組織を分離して機械学習(ML)モデルのパラメータに基づいて前記全体スライド画像のデータを正規化し、前記パラメータは、可能な染料並びに解像度又は他のパラメータを含んでおり、
    病理学者又は他の特定分野の専門家によりユーザーインターフェースを介して前記全体スライド画像のデータの領域に非デフォルト分類ラベルを適用することを伴う注釈付け用に、前記全体スライド画像のデータを提示し、
    注釈付けられた前記全体スライド画像のデータの領域から画像パッチを作成し、それぞれの画像パッチが1つのクラスに対応しており、
    分類に有用な特徴を動的に生成する前記機械学習モデルを訓練し、
    前記訓練された機械学習モデルの分類器を注釈付けされていない全体スライド画像データに適用して、前記染料に対するデフォルト分類および非デフォルト分類の集合とパッチパラメータとを生成し、
    マルチ分解能登録アルゴリズムを介して、前記前処理された全体スライド画像を登録し、前記マルチ分解能登録アルゴリズムは、(1)粗い登録アルゴリズムを適用して一般的なアフィン変換行列を生成することと、(2)連続的に小さくなるいくつかのサブセクションにおいて反復登録をして疎らな階層的マルチ分解能アフィン変換行列ピラミッドを生成し、その後前記階層的マルチ分解能アフィン変換行列ピラミッドを、組織及び撮像のばらつきに基づいて、画像間の対応する領域が、可能なアラインメントのうち最も精度良くアラインメントされるように、処理して、アフィン変換行列を1つの構造に組み合わせたアフィン変換行列フィールドであって、疎らではないアフィン変換行列フィールドを生成することと、を含んでおり、
    前記非デフォルト分類の集合を集団化することであって、前記非デフォルト分類の集合のそれぞれは、前記正規化された全体スライド画像データに前記訓練された機械学習モデルの分類器を適用することで生成され、当該集団化することは、個々の前記全体スライド画像に対して生成された前記アフィン変換行列フィールドを用いて前記非デフォルト分類の置き換えを通じて達成される、集団化することを実施し、
    前記染料の集合における前記複数の全体スライド画像のそれぞれからの前記集団化されたいくつかの非デフォルト分類を相関させ、それにより、関心領域の検出を強化して誤検出を減少させることで個々のいくつかの前記非デフォルト分類を相関させ、この結果、所定の染料の集合に対する1つ以上の非デフォルト分類の領域と、前記所定の染料の集合の前記1つ以上の非デフォルト分類の領域用のメタデータと、が得られる、
    よう構成された少なくとも1つのプロセッサ、
    を備えるシステム。
  2. 請求項1に記載のシステムにおいて、前記機械学習モデルに用いられる機械学習アルゴリズムは、深層学習、即ち、畳み込みニューラルネットワーク又は領域ベース畳み込みニューラルネットワーク、サポートベクターマシン、オートエンコーダ、又は浅いニューラルネットワークを含む、システム。
  3. 請求項1に記載のシステムにおいて、前記全体スライド画像は、色プロファイル、色ヒストグラム、又は他の区別特徴に基づき機械学習アルゴリズムであるサポートベクターマシンを用いて染料に関して分離又は分類される、システム。
  4. 請求項1に記載のシステムにおいて、前記背景は前処理ステップとして前記全体スライド画像及び対応するパッチから除外され、明度ベースの比較又は彩度ベースの比較のうち1つ以上を用いて前景と背景とが区別される、システム。
  5. 請求項1に記載のシステムにおいて、前記注釈は、前記システムにおいて専門の注釈者によって作成される代わりに、前記機械学習モデルの訓練又は評価のために、前記システム内にインポートされて前記機械学習モデルによる使用のための適切なフォーマットに変換される、システム。
  6. 請求項1に記載のシステムにおいて、前記注釈は専門の注釈者によってインポート又は指定され、前記非デフォルト分類ラベルが、前記全体スライド画像の全体に対して、ひいては前記全体スライド画像における前記組織の全てに対して、全てのラベルが適用される全体スライド画像ベース、又は、指定の前記領域及び前記ラベルを含む1つ又は複数の注釈付けされたセクションが前記全体スライド画像における特定の特徴を区別するために適用される領域ベース、である、システム。
  7. 請求項1に記載のシステムにおいて、前記全体スライド画像は、専門の注釈者による注釈の拡張を目的として又は訓練用の注釈ソースとして、アルゴリズムを用いて前処理され、前記画像を分割、事前注釈付け、又は注釈付けできる、システム。
  8. 請求項に記載のシステムにおいて、畳み込みニューラルネットワークの訓練を意図した、全体スライド画像からのパッチ又は領域のコホートがスケーリング、回転、フリッピング、ノイズ追加、ぼかし、伸張、又はスキューイングを含む少なくとも1つの処理技術を用いて増強され、訓練に用いられるデータセットの全体サイズ及び多様性が増加する、システム。
  9. 請求項に記載のシステムにおいて、前記畳み込みニューラルネットワークが前記システムの外部の画像データの集合において事前訓練されて転移学習を介して前記システム内にインポートされ、前記転移学習では、前記事前訓練された畳み込みニューラルネットワークの層の大部分が維持され、出力分類層のみが前記システムの全体スライド画像のパッチデータにおいて再訓練される、システム。
  10. 請求項1に記載のシステムにおいて、いくつかの前記非デフォルト分類ラベルであるラベルが前処理されて、前記ラベルがユーザー指定の出力ラベルの集合にマッピングされ、1つ以上の入力ラベルが1つの出力ラベルにマッピングされる、システム。
  11. 請求項に記載のシステムにおいて、2つ以上の畳み込みニューラルネットワークモデルが訓練されてもよく、前記2つ以上の畳み込みニューラルネットワークモデルのそれぞれが特定のデータ特徴に対応しており、この結果、これらの特定の特徴を有する画像パッチに前記2つ以上の畳み込みニューラルネットワークモデルが適合し、この結果、前記2つ以上の畳み込みニューラルネットワークモデルを用いて前記画像パッチがより正確に分類され、
    モデルのコホートが新しい全体スライド画像における推定のために用いられ、その結果得られるスコアは、その後、後処理を通じて評価されて最終的な分類が決定される、システム。
  12. 請求項に記載のシステムにおいて、2つ以上の畳み込みニューラルネットワークモデルが訓練されてもよく、前記2つ以上の畳み込みニューラルネットワークモデルのそれぞれが特定のデータ特徴に対応しており、この結果、これらの特定の特徴を有する画像パッチに前記2つ以上の畳み込みニューラルネットワークモデルが適合し、この結果、前記2つ以上の畳み込みニューラルネットワークモデルを用いて前記画像パッチがより正確に分類され、
    前処理が用いられて、推定に用いるためにどの畳み込みニューラルネットワークモデルモデルを選択するかが、前記全体スライド画像全体に対して又は領域ごとに決定され、最終結果が前記選択された畳み込みニューラルネットワークモデルモデルによる推定を介して返される、システム。
  13. 請求項1に記載のシステムにおいて、前記全体スライド画像のうち不正確に分類された画像パッチとして識別された選択領域が、前記不正確に分類された画像パッチを最初の訓練用の集合に追加してより大きな組み合わされた訓練用の集合を形成することにより、又は、修正された画像パッチに有利なデータの集合における再訓練により、集められて前記システム内にフィードバックされ、インクリメンタルトレーニングを介してより正確なモデルが作成される、システム。
  14. 請求項1に記載のシステムにおいて、前記粗い及び/又は精細な登録アルゴリズムはキーポイントの一致、ORB(Oriented FAST and Rotated BRIEF)の特徴、又は強度ベースの一致からユーザー又はシステム処理によって指定される、システム。
  15. 請求項14に記載のシステムにおいて、漸次高くなる解像度の登録が、既存の登録領域のサブセクションへの分割と前記サブセクションにおける登録アルゴリズムの処理と、によって算出され、
    大きなセクションの登録は多数の前記サブセクションからなり、前記大きなセクションの登録は前記漸次高くなる解像度の登録用の初期ガイドとして用いられる、システム。
  16. 請求項に記載のシステムにおいて、前記畳み込みニューラルネットワークからの出力は、信頼度スコアの閾値処理を含む少なくとも1つのアルゴリズムを適用することで後処理され、染料間登録とフィルタリングとスコアヒートマップの作成とにより検出が組み合わされる、システム。
JP2020565296A 2018-05-21 2019-04-24 マルチ分解能登録を介したマルチサンプル全体スライド画像処理 Active JP7458328B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862674368P 2018-05-21 2018-05-21
US62/674,368 2018-05-21
PCT/US2019/029006 WO2019226270A1 (en) 2018-05-21 2019-04-24 Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning

Publications (3)

Publication Number Publication Date
JP2021524630A JP2021524630A (ja) 2021-09-13
JPWO2019226270A5 JPWO2019226270A5 (ja) 2022-05-06
JP7458328B2 true JP7458328B2 (ja) 2024-03-29

Family

ID=68533889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020565296A Active JP7458328B2 (ja) 2018-05-21 2019-04-24 マルチ分解能登録を介したマルチサンプル全体スライド画像処理

Country Status (6)

Country Link
US (2) US10943346B2 (ja)
EP (1) EP3815040A4 (ja)
JP (1) JP7458328B2 (ja)
AU (1) AU2019275232A1 (ja)
CA (1) CA3100642A1 (ja)
WO (1) WO2019226270A1 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10663711B2 (en) 2017-01-04 2020-05-26 Corista, LLC Virtual slide stage (VSS) method for viewing whole slide images
US10691969B2 (en) * 2017-11-06 2020-06-23 EagleSens Systems Corporation Asynchronous object ROI detection in video mode
WO2019226270A1 (en) 2018-05-21 2019-11-28 Corista, LLC Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
JP7181001B2 (ja) * 2018-05-24 2022-11-30 日本電子株式会社 生物組織画像処理システム及び機械学習方法
CN112543934A (zh) * 2018-06-22 2021-03-23 H-Labs股份有限公司 一种确定异常程度的方法、相应的计算机可读介质和分布式癌症分析系统
US11275973B2 (en) 2019-04-15 2022-03-15 Noblis, Inc. Adapting pre-trained classification algorithms
CA3138679A1 (en) * 2019-04-30 2020-11-05 The Trustees Of Dartmouth College System and method for attention-based classification of high-resolution microscopy images
WO2020237185A1 (en) * 2019-05-23 2020-11-26 Icahn School Of Medicine At Mount Sinai Systems and methods to train a cell object detector
US11138477B2 (en) * 2019-08-15 2021-10-05 Collibra Nv Classification of data using aggregated information from multiple classification modules
CN111128347A (zh) * 2019-12-10 2020-05-08 青岛海信医疗设备股份有限公司 医学影像显示方法和通信终端
CN111310191B (zh) * 2020-02-12 2022-12-23 广州大学 一种基于深度学习的区块链智能合约漏洞检测方法
CN111310841B (zh) * 2020-02-24 2023-06-20 中南大学湘雅医院 医学图像分类方法、装置、设备、计算机设备和存储介质
JP7464904B2 (ja) 2020-02-27 2024-04-10 ブラザー工業株式会社 印刷材の種類を特定する方法、機械学習モデルをトレーニングする方法、および、学習済みモデル
US11621078B2 (en) * 2020-03-18 2023-04-04 International Business Machines Corporation Pre-processing whole slide images in cognitive medical pipelines
JP7236202B2 (ja) * 2020-04-06 2023-03-09 国立大学法人 新潟大学 データ生成装置、データ生成方法及びプログラム
WO2021215069A1 (ja) * 2020-04-21 2021-10-28 株式会社島津製作所 細胞画像解析装置
CN111611909A (zh) * 2020-05-18 2020-09-01 桂林电子科技大学 多子空间域自适应人脸识别方法
US11494886B2 (en) * 2020-05-29 2022-11-08 Adobe Inc. Hierarchical multiclass exposure defects classification in images
CN111640145B (zh) * 2020-05-29 2022-03-29 上海商汤智能科技有限公司 图像配准方法及其相关的模型训练方法、设备、装置
CN111666957B (zh) * 2020-07-17 2023-04-25 湖南华威金安企业管理有限公司 图像真实性的识别方法及装置
CN111597374B (zh) * 2020-07-24 2020-10-27 腾讯科技(深圳)有限公司 图像分类方法、装置及电子设备
CN116113979A (zh) * 2020-09-02 2023-05-12 仪景通株式会社 程序、信息存储介质以及处理系统
US11798165B2 (en) 2020-10-28 2023-10-24 Sony Group Corporation Tumor detection and segmentation for DPI AI platform routes
US20240054640A1 (en) * 2020-12-15 2024-02-15 Carnegie Mellon University System, Method, and Computer Program Product for Classification of Diseases Based on Expansion Microscopic Images
US20240037920A1 (en) * 2020-12-18 2024-02-01 Koninklijke Philips N.V. Continual-learning and transfer-learning based on-site adaptation of image classification and object localization modules
US20220222484A1 (en) * 2021-01-08 2022-07-14 Salesforce.Com, Inc. Ai-enhanced data labeling
US20220300769A1 (en) * 2021-03-19 2022-09-22 Arizona Board Of Regents On Behalf Of Arizona State University Systems, methods, and apparatuses for actively and continually fine-tuning convolutional neural networks to reduce annotation requirements
US20220309670A1 (en) * 2021-03-26 2022-09-29 Applied Materials, Inc. Method and system for visualizing information on gigapixels whole slide image
US12014830B2 (en) * 2021-04-18 2024-06-18 Mary Hitchcock Memorial Hospital, For Itself And On Behalf Of Dartmouth-Hitchcock Clinic System and method for automation of surgical pathology processes using artificial intelligence
CN113239972A (zh) * 2021-04-19 2021-08-10 温州医科大学 一种面向医学影像的人工智能辅助诊断模型构建系统
US11455753B1 (en) * 2021-05-12 2022-09-27 PAIGE.AI, Inc. Systems and methods to process electronic images to adjust attributes of the electronic images
CA3216960A1 (en) * 2021-05-12 2022-11-17 Navid Alemi Systems and methods to process electronic images to adjust stains in electronic images
CN113706450A (zh) * 2021-05-18 2021-11-26 腾讯科技(深圳)有限公司 图像配准方法、装置、设备及可读存储介质
CN113256618A (zh) * 2021-06-23 2021-08-13 重庆点检生物科技有限公司 一种基于ihc染色的肿瘤识别系统及方法
WO2023018785A2 (en) * 2021-08-11 2023-02-16 Histowiz, Inc. Systems and methods for automated tagging of digital histology slides
CN115206498A (zh) * 2021-11-08 2022-10-18 赛维森(广州)医疗科技服务有限公司 数字病理图像的数据流处理方法
US20230196112A1 (en) * 2021-12-16 2023-06-22 Korea Advanced Institute Of Science And Technology Meta input method and system and user-centered inference method and system via meta input for recycling of pretrained deep learning model
CN114418863B (zh) * 2022-03-31 2022-06-07 北京小蝇科技有限责任公司 细胞图像修复方法、装置、计算机存储介质及电子设备
US20230368346A1 (en) * 2022-05-10 2023-11-16 Gestalt Diagnostics, LLC Enhanced digital pathology platform
US11727672B1 (en) * 2022-05-24 2023-08-15 Nanotronics Imaging, Inc. System and method for generating training data sets for specimen defect detection
CN114781555A (zh) * 2022-06-21 2022-07-22 深圳市鼎合丰科技有限公司 改进knn方法的电子元器件数据分类方法
US20240177369A1 (en) * 2022-11-22 2024-05-30 Pramana, Inc. System and methods for color gamut normalization for pathology slides

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150110348A1 (en) 2013-10-22 2015-04-23 Eyenuk, Inc. Systems and methods for automated detection of regions of interest in retinal images
JP2016517559A (ja) 2013-03-14 2016-06-16 ベンタナ メディカル システムズ, インコーポレイテッド ホール・スライド画像レジストレーションおよび画像間注釈デバイス、システム、ならびに方法
JP2016518813A (ja) 2013-03-15 2016-06-30 ベンタナ メディカル システムズ, インコーポレイテッド デジタル・ホール・スライドの自動採点のための組織物体に基づく機械学習システム
WO2017087415A1 (en) 2015-11-17 2017-05-26 The Board Of Trustees Of The Leland Stanford Junior University Profiling of pathology images for clinical applications

Family Cites Families (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5733721A (en) 1992-11-20 1998-03-31 The Board Of Regents Of The University Of Oklahoma Cell analysis method using quantitative fluorescence image analysis
US5561556A (en) 1994-04-21 1996-10-01 Compucyte Corporation Slide analysis system with slide having self contained microscope analysis information
WO1997004347A1 (en) 1995-07-19 1997-02-06 Morphometrix Technologies Inc. Automated scanning of microscope slides
US6011809A (en) 1996-09-25 2000-01-04 Terumo Kabushiki Kaisha Multi-wavelength laser apparatus and continuous variable wavelength laser apparatus
US5956418A (en) * 1996-12-10 1999-09-21 Medsim Ltd. Method of mosaicing ultrasonic volumes for visual simulation
US6650357B1 (en) 1997-04-09 2003-11-18 Richardson Technologies, Inc. Color translating UV microscope
US7901887B2 (en) 1998-05-09 2011-03-08 Ikonisys, Inc. Automated cancer diagnostic methods using fish
JP2002514762A (ja) 1998-05-09 2002-05-21 アイコニシス,インコーポレーテッド コンピュータによって制御された、胎児細胞を含む希少細胞に基づく診断のための方法および装置
US6606413B1 (en) 1998-06-01 2003-08-12 Trestle Acquisition Corp. Compression packaged image transmission for telemicroscopy
US6466352B1 (en) 1999-04-23 2002-10-15 Arie Shahar High-resolution reading and writing scan system for planar and cylindrical surfaces
US7346200B1 (en) 1999-11-18 2008-03-18 Ikonisys, Inc. Method and apparatus for computer controlled cell based diagnosis
US7738688B2 (en) 2000-05-03 2010-06-15 Aperio Technologies, Inc. System and method for viewing virtual slides
US6711283B1 (en) 2000-05-03 2004-03-23 Aperio Technologies, Inc. Fully automatic rapid microscope slide scanner
US7518652B2 (en) 2000-05-03 2009-04-14 Aperio Technologies, Inc. Method and apparatus for pre-focus in a linear array based slide scanner
US7292251B1 (en) 2000-10-06 2007-11-06 The Research Foundation Of State University Of New York Virtual telemicroscope
US7155049B2 (en) 2001-01-11 2006-12-26 Trestle Acquisition Corp. System for creating microscopic digital montage images
US6798571B2 (en) 2001-01-11 2004-09-28 Interscope Technologies, Inc. System for microscopic digital montage imaging using a pulse light illumination system
US7248716B2 (en) 2001-07-06 2007-07-24 Palantyr Research, Llc Imaging system, methodology, and applications employing reciprocal space optical design
US7132636B1 (en) 2001-07-06 2006-11-07 Palantyr Research, Llc Imaging system and methodology employing reciprocal space optical design
US7338168B2 (en) 2001-07-06 2008-03-04 Palantyr Research, Llc Particle analyzing system and methodology
US7109464B2 (en) 2001-07-06 2006-09-19 Palantyr Research, Llc Semiconductor imaging system and related methodology
US7863552B2 (en) 2001-07-06 2011-01-04 Palantyr Research Llc Digital images and related methodologies
US7151246B2 (en) 2001-07-06 2006-12-19 Palantyr Research, Llc Imaging system and methodology
US7756357B2 (en) 2003-07-01 2010-07-13 Olympus Corporation Microscope system for obtaining high and low magnification images
US8574590B2 (en) 2003-07-30 2013-11-05 Integral Molecular, Inc. Lipoparticles comprising proteins, methods of making, and using the same
JP2007509334A (ja) 2003-10-21 2007-04-12 ライカ マイクロシステムス ツェーエムエス ゲーエムベーハー レーザマイクロ切開におけるレーザ切断線の自動生成方法
US6905300B1 (en) 2004-01-16 2005-06-14 Dmetrix, Inc. Slide feeder with air bearing conveyor
US8271251B2 (en) 2004-02-09 2012-09-18 Wisconsin Alumni Research Foundation Automated imaging system for single molecules
JP5134365B2 (ja) 2004-05-27 2013-01-30 アペリオ・テクノロジーズ・インコーポレイテッド 三次元仮想スライドを生成しかつ可視化するためのシステム及び方法
US7417213B2 (en) 2005-06-22 2008-08-26 Tripath Imaging, Inc. Apparatus and method for rapid microscopic image focusing having a movable objective
US8249315B2 (en) 2006-05-22 2012-08-21 Upmc System and method for improved viewing and navigation of digital images
EP1895197A3 (en) 2006-08-28 2011-02-23 Jtekt Corporation Differential case for vehicle
EP2171641A4 (en) 2007-06-21 2012-11-14 Univ Johns Hopkins HANDLING DEVICE FOR NAVIGATING ON VIRTUAL MICROSCOPE OBJECT HOLDER BLADES / DIGITAL IMAGES AND METHODS RELATED THERETO
US8170698B1 (en) 2008-02-20 2012-05-01 Mark David Gusack Virtual robotic controller system with special application to robotic microscopy structure and methodology
EP2120208A1 (en) * 2008-05-13 2009-11-18 IBBT vzw Method and system for lesion segmentation
WO2010102113A2 (en) 2009-03-04 2010-09-10 Mayo Foundation For Medical Education And Research Computer input device
US9811834B2 (en) * 2009-05-04 2017-11-07 Provo Craft And Novelty, Inc. System and method for providing digital content
US8891851B2 (en) 2009-07-15 2014-11-18 Glenn F. Spaulding Home healthcare management system and hardware
US8712120B1 (en) 2009-09-28 2014-04-29 Dr Systems, Inc. Rules-based approach to transferring and/or viewing medical images
CA2842721C (en) 2009-10-19 2016-03-29 Ventana Medical Systems, Inc. Imaging system and techniques
US9159130B2 (en) 2009-10-22 2015-10-13 Koninklijke Philips N.V. Alignment of an ordered stack of images from a specimen
JP5555014B2 (ja) 2010-03-10 2014-07-23 オリンパス株式会社 バーチャルスライド作成装置
JP5703609B2 (ja) 2010-07-02 2015-04-22 ソニー株式会社 顕微鏡及び領域判定方法
JP5655557B2 (ja) 2010-07-12 2015-01-21 ソニー株式会社 顕微鏡制御装置、画像表示装置、画像管理サーバ、合焦位置情報生成方法、画像表示方法、画像管理方法及び顕微鏡画像管理システム
EP2616903B1 (en) 2010-09-16 2016-07-27 Omnyx LLC Control configuration for digital image system
US8542274B2 (en) 2010-10-18 2013-09-24 Olympus America Inc. Wide field microscopic imaging system and method
US8718350B2 (en) 2011-04-08 2014-05-06 Regents Of The University Of Minnesota Computerized methods for tissue analysis
CA2843468A1 (en) 2011-07-27 2013-01-31 Michael Meissner Systems and methods in digital pathology
US8897537B2 (en) 2011-08-02 2014-11-25 Nec Laboratories America, Inc. Cloud-based digital pathology
JP2013068706A (ja) 2011-09-21 2013-04-18 Sony Corp 情報処理装置、情報処理方法、プログラム及び記録媒体
US8611692B2 (en) * 2011-09-26 2013-12-17 Northrop Grumman Systems Corporation Automated image registration with varied amounts of a priori information using a minimum entropy method
US8706729B2 (en) 2011-10-12 2014-04-22 California Institute Of Technology Systems and methods for distributed data annotation
FR2982384B1 (fr) 2011-11-04 2014-06-27 Univ Pierre Et Marie Curie Paris 6 Dispositif de visualisation d'une lame virtuelle
JP5705096B2 (ja) 2011-12-02 2015-04-22 キヤノン株式会社 画像処理装置及び画像処理方法
CA2760873C (en) 2011-12-02 2020-04-21 Sabine Mai Diagnostic methods for hematological disorders
JP5979904B2 (ja) * 2012-02-20 2016-08-31 キヤノン株式会社 画像処理装置、眼科撮影システム、及び画像処理方法
US20130239031A1 (en) * 2012-03-06 2013-09-12 Apple Inc. Application for viewing images
JP2014012040A (ja) 2012-07-03 2014-01-23 Sony Corp 入力装置および情報処理システム
DE102012214664A1 (de) 2012-08-17 2014-02-20 Leica Microsystems Cms Gmbh Objektträger mit Bezugspunkten
JP2014090401A (ja) 2012-10-05 2014-05-15 Canon Inc 撮像システム及びその制御方法
CN104737056B (zh) 2012-10-15 2017-04-26 索尼公司 图像获取装置及测量载片倾度的方法
US9224106B2 (en) 2012-12-21 2015-12-29 Nec Laboratories America, Inc. Computationally efficient whole tissue classifier for histology slides
US10012537B2 (en) 2013-01-31 2018-07-03 Ventana Medical Systems, Inc. Systems and methods for calibrating, configuring and validating an imaging device or system for multiplex tissue assays
US10088658B2 (en) 2013-03-18 2018-10-02 General Electric Company Referencing in multi-acquisition slide imaging
CN105474620B (zh) 2013-07-29 2018-08-24 富士胶片株式会社 摄像模块的制造方法及摄像模块的制造装置
WO2015016042A1 (ja) 2013-07-30 2015-02-05 富士フイルム株式会社 撮像モジュール及び電子機器
WO2015016009A1 (ja) 2013-07-30 2015-02-05 富士フイルム株式会社 撮像モジュール及び電子機器
JP5899382B2 (ja) 2013-08-01 2016-04-06 富士フイルム株式会社 撮像モジュール、及びこれを備えた電子機器、並びに撮像モジュールの製造方法
DE102013216938B3 (de) 2013-08-26 2015-01-08 Leica Microsystems Cms Gmbh Verfahren zur Kalibrierung einer Laserablenkeinrichtung einesLasermikrodissektionssystems und Lasermikrodissektionssystem
WO2015049233A1 (en) 2013-10-01 2015-04-09 Ventana Medical Systems, Inc. Line-based image registration and cross-image annotation devices, systems and methods
JPWO2015060256A1 (ja) 2013-10-22 2017-03-09 富士フイルム株式会社 撮像モジュールの製造方法及び撮像モジュールの製造装置
US10258256B2 (en) * 2014-12-09 2019-04-16 TechMah Medical Bone reconstruction and orthopedic implants
EP3094957A4 (en) 2014-01-17 2017-09-20 Campbell, William, Eugene Methods and systems for slide processing
WO2015113895A1 (en) * 2014-01-28 2015-08-06 Ventana Medical Systems, Inc. Adaptive classification for whole slide tissue segmentation
US9430829B2 (en) * 2014-01-30 2016-08-30 Case Western Reserve University Automatic detection of mitosis using handcrafted and convolutional neural network features
CN106462657B (zh) 2014-03-14 2020-04-07 B-K医疗公司 超声成像系统的图形虚拟控件
US9547898B2 (en) 2014-03-26 2017-01-17 Sectra Ab Automated cytology/histology viewers and related methods
CA2944829C (en) * 2014-05-23 2022-10-25 Ting Chen Systems and methods for detection of biological structures and/or patterns in images
US10089438B2 (en) * 2014-06-27 2018-10-02 Symplast Llc Integrated system and method for the acquisition, processing and production of health care records and services
EP3171161A4 (en) 2014-07-11 2017-12-13 Konica Minolta, Inc. Biological substance quantitative determination method, image processing device, pathological diagnosis support system, and program
JP6480713B2 (ja) 2014-11-18 2019-03-13 オリンパス株式会社 顕微鏡システム
US9581800B2 (en) 2014-11-21 2017-02-28 General Electric Company Slide holder for detection of slide placement on microscope
WO2016087592A1 (en) * 2014-12-03 2016-06-09 Ventana Medical Systems, Inc. Systems and methods for early-stage cancer prognosis
JP6562627B2 (ja) 2014-12-10 2019-08-21 キヤノン株式会社 顕微鏡システム
EP3251052A1 (en) 2015-01-31 2017-12-06 Ventana Medical Systems, Inc. Quality control of automated whole-slide analysis
US10317663B2 (en) 2015-02-27 2019-06-11 General Electric Company Determination of deflection of a microscope slide
US9704097B2 (en) * 2015-05-29 2017-07-11 Sas Institute Inc. Automatically constructing training sets for electronic sentiment analysis
US9846938B2 (en) 2015-06-01 2017-12-19 Virtual Radiologic Corporation Medical evaluation machine learning workflows and processes
US9805166B1 (en) 2015-07-10 2017-10-31 Glenn SPAULDING Home healthcare management system and hardware and software
CN108140249B (zh) * 2015-09-02 2022-04-19 文塔纳医疗系统公司 用于显示生物标本的多个图像的图像处理系统和方法
US9772282B2 (en) 2015-11-12 2017-09-26 Massachusetts Institute Of Technology System for wide field-of-view, highly oblique illumination microscopy for scatter-based discrimination of cells
US10049450B2 (en) * 2015-12-03 2018-08-14 Case Western Reserve University High-throughput adaptive sampling for whole-slide histopathology image analysis
US11002667B2 (en) 2015-12-23 2021-05-11 Koninklijke Philips N.V. Calibration slide for digital pathology
US10229324B2 (en) * 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
US10583269B2 (en) 2016-06-01 2020-03-10 Becton, Dickinson And Company Magnetized catheters, devices, uses and methods of using magnetized catheters
US10572996B2 (en) 2016-06-28 2020-02-25 Contextvision Ab Method and system for detecting pathological anomalies in a digital pathology image and method for annotating a tissue slide
US10489633B2 (en) * 2016-09-27 2019-11-26 Sectra Ab Viewers and related methods, systems and circuits with patch gallery user interfaces
US10528848B2 (en) 2016-11-04 2020-01-07 Case Western Reserve University Histomorphometric classifier to predict cardiac failure from whole-slide hematoxylin and eosin stained images
US10643396B2 (en) * 2016-11-11 2020-05-05 Microbrightfield, Inc. Methods and software for creating a 3D image from images of multiple histological sections and for mapping anatomical information from a reference atlas to a histological image
CN110337588B (zh) * 2016-12-19 2023-02-17 文塔纳医疗系统公司 用于定量免疫组织化学的方法和系统
US10663711B2 (en) 2017-01-04 2020-05-26 Corista, LLC Virtual slide stage (VSS) method for viewing whole slide images
US10600184B2 (en) * 2017-01-27 2020-03-24 Arterys Inc. Automated segmentation utilizing fully convolutional networks
WO2018138564A1 (en) * 2017-01-27 2018-08-02 Sigtuple Technologies Private Limited Method and system for detecting disorders in retinal images
US11164308B2 (en) * 2017-02-27 2021-11-02 The Regents Of The University Of California System and method for improved medical images
BR112019022447A2 (pt) * 2017-04-27 2020-06-09 Bober Miroslaw sistema e método para análise de imagem funduscópica automatizada
US11748877B2 (en) * 2017-05-11 2023-09-05 The Research Foundation For The State University Of New York System and method associated with predicting segmentation quality of objects in analysis of copious image data
US10776607B2 (en) * 2017-05-19 2020-09-15 Case Western Reserve University Predicting prostate cancer biochemical recurrence and metastasis with computer extracted features from tumor nuclei and benign regions
GB201709672D0 (en) * 2017-06-16 2017-08-02 Ucl Business Plc A system and computer-implemented method for segmenting an image
US10444486B2 (en) 2017-09-04 2019-10-15 Microscopes International, Llc Systems and methods for detection of blank fields in digital microscopes
US11176456B2 (en) * 2017-11-29 2021-11-16 International Business Machines Corporation Pre-training neural networks using data clusters
EP3762854A1 (en) * 2018-03-07 2021-01-13 Google LLC Virtual staining for tissue slide images
US10878569B2 (en) * 2018-03-28 2020-12-29 International Business Machines Corporation Systems and methods for automatic detection of an indication of abnormality in an anatomical image
US10572725B1 (en) * 2018-03-30 2020-02-25 Intuit Inc. Form image field extraction
WO2019226270A1 (en) 2018-05-21 2019-11-28 Corista, LLC Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
US11081232B2 (en) * 2018-05-23 2021-08-03 Roche Diabetes Care, Inc. Medical device data management configuration systems and methods of use

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016517559A (ja) 2013-03-14 2016-06-16 ベンタナ メディカル システムズ, インコーポレイテッド ホール・スライド画像レジストレーションおよび画像間注釈デバイス、システム、ならびに方法
JP2016518813A (ja) 2013-03-15 2016-06-30 ベンタナ メディカル システムズ, インコーポレイテッド デジタル・ホール・スライドの自動採点のための組織物体に基づく機械学習システム
US20150110348A1 (en) 2013-10-22 2015-04-23 Eyenuk, Inc. Systems and methods for automated detection of regions of interest in retinal images
WO2017087415A1 (en) 2015-11-17 2017-05-26 The Board Of Trustees Of The Leland Stanford Junior University Profiling of pathology images for clinical applications

Also Published As

Publication number Publication date
US11681418B2 (en) 2023-06-20
WO2019226270A1 (en) 2019-11-28
EP3815040A4 (en) 2022-03-02
US20210407076A1 (en) 2021-12-30
US10943346B2 (en) 2021-03-09
US20190355113A1 (en) 2019-11-21
WO2019226270A8 (en) 2020-01-16
JP2021524630A (ja) 2021-09-13
CA3100642A1 (en) 2019-11-28
EP3815040A1 (en) 2021-05-05
AU2019275232A1 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
JP7458328B2 (ja) マルチ分解能登録を介したマルチサンプル全体スライド画像処理
US11901077B2 (en) Multiple instance learner for prognostic tissue pattern identification
US20220237788A1 (en) Multiple instance learner for tissue image classification
EP3455782B1 (en) System and method for detecting plant diseases
JP6710135B2 (ja) 細胞画像の自動分析方法及びシステム
Ruan et al. Multi-correlation filters with triangle-structure constraints for object tracking
WO2019048954A1 (en) DETERMINATION OF COLORING QUALITY OF FABRIC
US10121245B2 (en) Identification of inflammation in tissue images
US11062168B2 (en) Systems and methods of unmixing images with varying acquisition properties
US20120219206A1 (en) High-Throughput Biomarker Segmentation Utilizing Hierarchical Normalized Cuts
WO2017181892A1 (zh) 前景分割方法及装置
Dabass et al. An Atrous Convolved Hybrid Seg-Net Model with residual and attention mechanism for gland detection and segmentation in histopathological images
Marcuzzo et al. Automated Arabidopsis plant root cell segmentation based on SVM classification and region merging
CN112703531A (zh) 生成组织图像的注释数据
Peng et al. Saliency-aware image-to-class distances for image classification
Riche et al. Bottom-up saliency models for still images: A practical review
Stegmaier New methods to improve large-scale microscopy image analysis with prior knowledge and uncertainty
Duan et al. Bio-inspired visual attention model and saliency guided object segmentation
Acosta Multimodal image registration in 2D and 3D correlative microscopy
Anju et al. A Study on Digital Pathology Image Segmentation Using Deep Learning Methods
Carvajal AN END TO END PIPELINE TO LOCALIZE NUCLEI IN MICROSCOPIC ZEBRAFISH EMBRYO IMAGES
Ayala An End to End Pipeline to Localize Nuclei in Microscopic Zebrafish Embryo Images
Ilyas Tumor Detection in Breast Histopathology Images via modified Faster-RCNN
Jyash et al. EFFICIENT MACHINE LEARNING ALGORITHM FOR CANCER DETECTION USING BIOMEDICAL IMAGE
Bhat et al. Hybrid Particle Swarm Optimization Based Deep Learning Model for the Stage Classification of Lung Cancer

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7458328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150