JP7226895B2 - 医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするための方法及び装置 - Google Patents

医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするための方法及び装置 Download PDF

Info

Publication number
JP7226895B2
JP7226895B2 JP2019566558A JP2019566558A JP7226895B2 JP 7226895 B2 JP7226895 B2 JP 7226895B2 JP 2019566558 A JP2019566558 A JP 2019566558A JP 2019566558 A JP2019566558 A JP 2019566558A JP 7226895 B2 JP7226895 B2 JP 7226895B2
Authority
JP
Japan
Prior art keywords
histological
image
sample
target
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019566558A
Other languages
English (en)
Other versions
JP2020508536A (ja
Inventor
ケネス マーク ソリバン
ジン マン カン
Original Assignee
コー・ヤング・テクノロジー・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コー・ヤング・テクノロジー・インコーポレーテッド filed Critical コー・ヤング・テクノロジー・インコーポレーテッド
Publication of JP2020508536A publication Critical patent/JP2020508536A/ja
Application granted granted Critical
Publication of JP7226895B2 publication Critical patent/JP7226895B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/40ICT specially adapted for the handling or processing of patient-related medical or healthcare data for data related to laboratory analysis, e.g. patient specimen analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本出願は、2017年2月21日付で出願された先行米国仮特許出願第62/461,490号、及び2017年9月27日付で出願された米国仮特許出願第62/563,751号に基づいており、これから優先権の利益を主張し、この米国出願の内容全体は参考として本明細書に含まれている。
本開示は、一般的にディスプレイのために組織学的イメージ(histological image)をプロセッシングすることに関するものであって、さらに具体的には、準指導学習モデル(semi-supervised learning model)を用いて組織学的イメージの修正されたイメージを生成することに関するものである。
組織学において、H&E(ヘマトキシリン及びエオシン)染色が医療診断に広く用いられてきた。例えば、患者の身体で癌のような疑わしい病変を検査するために、医師は疑わしい病変のサンプルを取得し、H&E染色の顕微鏡写真を生成するための予め定められた手続きを行うことができる。医師は次に、患者の疾病を診断するために、顕微鏡でH&E染色の顕微鏡写真を見ることができる。H&E染色の顕微鏡写真を取得するために、患者からの疑わしい病変のサンプルは、典型的に組織学実験室に送られる。また、H&E染色の顕微鏡写真を生成するために、一連の予め定められた手続きが行われる。そのような手続きは、H&E染色の顕微鏡写真を取得するのに、通常、一日以上が要される。一部の場合においては、疾病の適時治療を提供するために、外科手術の間に疾病の迅速な診断が要求され得る。しかし、前記手続きによると、疑わしい病変に対する疾病が手術の間に直ちに診断されないこともある。
一方、CT(Computer Tomography)、MRI(Magnetic Resonance Imaging)顕微鏡写真などのようなイメージがキャプチャされて潜在的患者を確実に診断するのに用いられ得る。しかし、そのような顕微鏡写真のイメージをキャプチャすることは、潜在的患者に相対的に多くの費用が要され得る。また、そのようなCT及びMRIデバイスはあまりにも大きく、手術の間に人体の一部分をキャプチャするのに用いられ得ない。即ち、このデバイスは、手術の間に手術室に位置させたり、手術室に移動させたりするのに適していないこともある。
即刻かつ迅速な診断のために、OCT(Optical Coherence Tomography)デバイスのような医療イメージングデバイスによりキャプチャされた相対的に低い品質を有するイメージが、患者における疑わしい病変の位置確認のために用いられてきた。そのようなイメージはCT及び/またはMRI顕微鏡写真より安く取得され得、H&E染色の顕微鏡写真より速かに生成され得る。しかし、そのようなイメージは、イメージにおいて1つ以上の組織類型の疾病を正確に診断するのに適切な可視性(visibility)を有していないことがある。
本開示に記載された実施例は、準指導学習モデルであり得る予測モデルを用いて医療イメージングデバイスによりキャプチャされた組織学的イメージの修正されたイメージを生成することに関するものである。
本開示の一様態によると、医療イメージングデバイスによりキャプチャされた1つ以上の組織学的イメージをプロセッシングするために、コンピュータにより行われる方法が開示される。この方法において、少なくとも1つの組織類型を含む組織学的イメージのそれぞれが受信され、組織学的イメージのそれぞれにおける少なくとも1つの候補組織類型が第1オートエンコーダ(autoencoder)により決定される。組織学的イメージにおける少なくとも1つの候補組織類型に対応する少なくとも1つのターゲット領域が、第1オートエンコーダにより識別される。組織学的イメージのそれぞれにおけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージは、1つ以上のサンプル組織学的イメージを1つ以上のサンプルターゲット組織学的イメージと連関させる予測モデルに基づいて識別される。識別されたターゲット組織学的イメージまたはイメージと連関した1つ以上のディスプレイ特性が組織学的イメージに適用される。本開示は、この方法に関するデバイス及びコンピュータ読み取り可能媒体をさらに説明する。
本開示の一様態は、医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするために、コンピュータにより行われる方法に関するものであり、この方法は、少なくとも1つの組織類型を含む組織学的イメージを受信する段階と、第1オートエンコーダにより、組織学的イメージにおける候補組織類型を決定する段階と、第1オートエンコーダにより、組織学的イメージにおける候補組織類型に対応するターゲット領域を識別する段階と、1つ以上のサンプル組織学的イメージを1つ以上のサンプルターゲット組織学的イメージと連関させる予測モデルに基づいて組織学的イメージにおけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別する段階と、識別された少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を組織学的イメージに適用する段階とを含む。この方法は、適用されたディスプレイ特性を含む組織学的イメージの修正されたイメージを生成する段階をさらに含むことができる。
一実施例において、予測モデルは、サンプル組織学的イメージのそれぞれにおける第1パッチセット及びサンプルターゲット組織学的イメージのそれぞれにおける第2パッチセットを含むことができ、予測モデルにおいて第1パッチセットは第2パッチセットと連関し、1つ以上のディスプレイ特性を適用する段階は、識別された少なくとも1つのターゲット組織学的イメージにおける第2パッチセットに基づいて受信された組織学的イメージにおける複数のパッチを修正する段階を含む。
一実施例において、候補組織類型に対応するターゲット領域を識別する段階は、組織学的イメージにおけるターゲット領域を含む複数の領域を識別する段階を含むことができ、予測モデルは、サンプル組織学的イメージのそれぞれにおける第1領域セット、及びサンプルターゲット組織学的イメージのそれぞれにおける第2領域セットを含み、予測モデルにおいて第1領域セットは第2領域セットと連関し、1つ以上のディスプレイ特性を適用する段階は、識別された少なくとも1つのターゲット組織学的イメージにおける第2領域セットに基づいて受信された組織学的イメージにおける複数の領域を修正する段階を含む。
一実施例において、第1非指導学習モデルは、第1サンプル組織学的イメージセットに基づいて第1オートエンコーダをトレーニングすることにより生成され得る。一実施例において、予測モデルは、第1非指導学習モデル及び第2非指導学習モデルに基づいて生成され得、第2非指導学習モデルは、第2サンプルターゲット組織学的イメージセットをトレーニングすることにより生成され得る。一実施例において、第1サンプル組織学的イメージセットにおけるM個のサンプル組織学的イメージの1つ以上の解剖学的位置は、第2サンプルターゲット組織学的イメージセットにおけるN個のサンプルターゲット組織学的イメージの1つ以上の解剖学的位置とマッチングするように整列され得、M及びNは、正の整数である。一実施例において、予測モデルは、1つ以上のディスプレイ特性を示す1つ以上の特徴に関するデータを含むことができ、N個のサンプルターゲット組織学的イメージからの1つ以上の特徴をM個のサンプル組織学的イメージからの1つ以上の特徴と連関させることによりトレーニングされる。
一実施例において、医療イメージングデバイスによりキャプチャされた組織学的イメージは、ターゲット構造体の1つ以上の組織学的イメージを含むことができ、ターゲット構造体は、可視表面から2~4mmの深さを有することができる。一実施例において、第1非指導学習モデルは、組織学的イメージにおけるターゲット領域と連関した1つ以上の特徴に基づいてトレーニングされ得る。一実施例において、第1非指導学習モデル、第2非指導学習モデル、及び予測モデルのそれぞれは、人工神経(ニューラル)ネットワークの1つ以上のモデルハイパーパラメータ(model hyperparameters)及び1つ以上の加重値により定義された多層モデル(multilayer model)を含むことができる。
本開示の一様態は、医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするためのイメージプロセッシングデバイスに関するものであり、このデバイスは、少なくとも1つの組織類型を含む組織学的イメージを受信し、組織学的イメージにおける候補組織類型を決定し、組織学的イメージにおける候補組織類型に対応するターゲット領域を識別するように構成された第1オートエンコーダと、1つ以上のサンプル組織学的イメージを1つ以上のサンプルターゲット組織学的イメージと連関させる予測モデルに基づいて組織学的イメージにおけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別し、識別された少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を組織学的イメージに適用するように構成されたイメージ生成ユニットとを含む。
一実施例において、イメージ生成ユニットは、適用されたディスプレイ特性を含む組織学的イメージの修正されたイメージを生成するようにさらに構成され得る。一実施例において、第1オートエンコーダは、組織学的イメージにおけるターゲット領域を含む複数の領域を識別するようにさらに構成され得、予測モデルは、サンプル組織学的イメージのそれぞれにおける第1領域セット、及びサンプルターゲット組織学的イメージのそれぞれにおける第2領域セットを含み、予測モデルにおいて第1領域セットは第2領域セットと連関し、イメージ生成ユニットは、識別された少なくとも1つのターゲット組織学的イメージにおける第2領域セットに基づいて受信された組織学的イメージにおける複数の領域を修正するようにさらに構成される。
一実施例において、第1非指導学習モデルは、第1サンプル組織学的イメージセットに基づいて第1オートエンコーダをトレーニングすることにより生成され得る。一実施例において、予測モデルは、第1非指導学習モデル及び第2非指導学習モデルに基づいて生成され得、第2非指導学習モデルは、第2サンプルターゲット組織学的イメージセットをトレーニングすることにより生成され得る。一実施例において、第1サンプル組織学的イメージセットにおけるM個のサンプル組織学的イメージの1つ以上の解剖学的位置は、第2サンプルターゲット組織学的イメージセットにおけるN個のサンプルターゲット組織学的イメージの1つ以上の解剖学的位置とマッチングするように整列され得、M及びNは、正の整数である。
本開示の一様態は、組織学的イメージをプロセッシングするための命令語を含む非一時的コンピュータ読み取り可能格納媒体に関するものであり、この命令語はコンピュータのプロセッサに動作を行わせ、この動作は、少なくとも1つの組織類型を含む組織学的イメージを受信する動作と、組織学的イメージにおける候補組織類型を決定する動作と、組織学的イメージにおける候補組織類型に対応するターゲット領域を識別する動作と、1つ以上のサンプル組織学的イメージを1つ以上のサンプルターゲット組織学的イメージと連関させる予測モデルに基づいて組織学的イメージにおけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別する動作と、識別された少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を組織学的イメージに適用する動作とを含む。
一実施例において、候補組織類型に対応するターゲット領域を識別する動作は、組織学的イメージにおけるターゲット領域を含む複数の領域を識別する動作を含むことができ、ここで予測モデルは、サンプル組織学的イメージのそれぞれにおける第1領域セット、及びサンプルターゲット組織学的イメージのそれぞれにおける第2領域セットを含み、ここで予測モデルにおいて第1領域セットは第2領域セットと連関し、ここで1つ以上のディスプレイ特性を適用する動作は、識別された少なくとも1つのターゲット組織学的イメージにおける第2領域セットに基づいて受信された組織学的イメージにおける複数の領域を修正する動作を含む。
一実施例において、予測モデルは、複数のディスプレイ特性を示す1つ以上の特徴を含むことができ、第2サンプルターゲット組織学的イメージセットにおけるN個のサンプルターゲット組織学的イメージからの1つ以上の特徴を、第1サンプル組織学的イメージセットにおけるM個のサンプル組織学的イメージからの1つ以上の特徴と連関させることによりトレーニングされ得、M及びNは、正の整数である。
本開示は、準指導学習モデルであり得る予測モデルを用いて医療イメージングデバイスによりキャプチャされた組織学的イメージの修正されたイメージを生成することに関する。
本開示の一実施例による、医療イメージングデバイスが医療手術の間作動しており、医療イメージングデバイスによりキャプチャされた組織学的イメージの修正されたイメージがディスプレイユニット上にディスプレイされる手術室の環境を示している。 本開示の一実施例による、予測モデルに基づいて組織学的イメージにおけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別し、少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を組織学的イメージに適用することにより組織学的イメージの修正されたイメージを生成するための流れ図である。 本開示の一実施例による、第1オートエンコーダ、第2オートエンコーダ、及び指導連関学習機(supervised association learner)をトレーニングすることにより予測モデルを生成し、第1オートエンコーダ及び予測モデルに基づいて組織学的イメージをプロセッシングするように構成されたイメージプロセッシングデバイスのブロック図を例示している。 本開示の一実施例による、組織学的イメージの第1サンプルイメージデータベースにおけるサンプル組織学的イメージに基づいて第1オートエンコーダをトレーニングすることにより生成され得る第1非指導学習モデルのブロック図を示している。 本開示の一実施例による、ターゲット組織学的イメージの第2サンプルイメージデータベースにおけるサンプルターゲット組織学的イメージに基づいて第2オートエンコーダをトレーニングすることにより生成され得る第2非指導学習モデルのブロック図を例示している。 本開示の一実施例による、マッチングするイメージのゴールデンセット(golden set)に基づいて第2非指導学習モデルを第1非指導学習モデルと連関させることにより予測モデルを生成するように構成されたイメージプロセッシングデバイス内の指導連関学習機を示している。 本開示の一実施例による、予測モデルに基づいて組織学的イメージの修正されたイメージを生成するために用いられるプロセッサ内のイメージ生成ユニット及び第1オートエンコーダのブロック図を示している。 本開示の一実施例による、医療イメージングデバイスによりキャプチャされた組織学的イメージを受信し、第1オートエンコーダ及び予測モデルを用いて組織学的イメージの修正されたイメージを生成するための方法のフローチャートである。 本開示の一実施例による、第1及び第2非指導学習モデルを生成するために第1及び第2オートエンコーダをトレーニングして、マッチングするイメージのゴールデンセットに基づいて第2非指導学習モデルを第1非指導学習モデルと連関させることにより予測モデルを生成するための方法のフローチャートである。
本開示の発明の様態の実施例は、添付の図面と関連して読めば、下記の詳細な説明を参照して理解されるであろう。
多様な実施例についてこれから詳細に言及し、実施例の例は、添付の図面に例示されている。下記の詳細な説明において、本主題の完全な理解を提供するために数多くの特定の細部事項が記載されている。しかし、本主題がこの特定の細部事項を用いずに実施され得ることは、本技術分野の通常の技術者には明白であろう。他の場合において、広く公知された方法、手続き、システム、及びコンポーネントが多様な実施例の様態を不要に曖昧にさせないために、詳細に説明されていない。
図1は、本開示の一実施例による、医療イメージングデバイス100が医療手術の間作動しており、医療イメージングデバイス100によりキャプチャされた組織学的イメージの修正されたイメージ120がディスプレイデバイス110上にディスプレイされる手術室の環境を例示している。例示されたような手術室において、医者10及び/または20は、ベッド40上に横たわっている患者30を手術することができる。本実施例において、医者10及び/または20は、手術の間患者30の疾病または疾患を診断するために、医療イメージングデバイス100を用いることができる。例えば、医療イメージングデバイス100は、OCTデバイス、X-線放射線検査(X-ray radiography)デバイス、MRIデバイス、CTデバイス、超音波検査(ultrasonography)または超音波デバイス、内視鏡検査(endoscopy)デバイス、触覚イメージングデバイス、サーモグラフィーデバイス、核医学機能イメージング(nuclear medicine functional imaging)デバイス、またはこれと類似のような、身体部位の2次元または3次元組織学的イメージをキャプチャするように構成される任意の類型のイメージキャプチャデバイスであってもよい。
医療イメージングデバイス100は、患者30の身体部位における少なくとも1つの組織類型を含む組織学的イメージ(例えば、M2TMのOCTイメージングシステムのOCTデバイスによりキャプチャされたM2TMのイメージをキャプチャしたり生成したりするように構成され得る。例えば、組織学的イメージがOCTデバイスによりキャプチャされると、組織学的イメージはグレースケールイメージであり得る。たとえ、本実施例において医療イメージングデバイス100がベッド40に固定されて設置されたものとして例示されていても、医療イメージングデバイス100が患者30の身体部位のイメージをキャプチャできるように医療イメージングデバイス100は、手術室の任意の部分に固定されて設置されるように構成され得る。代案として、医療イメージングデバイス100は、医師10及び/または20により患者30の関心部位近傍に位置し得るように脱付着型(detachable)及び/または携帯型(portable)であるように構成され得る。
一実施例によると、医療イメージングデバイス100がOCTデバイスであれば、医療イメージングデバイス100は、光ソースを用いて患者30の身体部位に光(例えば、レーザまたは低コヒーレンス(low-coherence)光)を照射し、患者30の身体部位で後方散乱される光を収集して、医療イメージングデバイス100によりキャプチャされる後方散乱された光のエコー時間の遅延を測定することができる。また、医療イメージングデバイス100は、収集された光の光学コヒーレンスを識別するように構成され得る。医療イメージングデバイス100は、例えば、エコー時間の遅延を測定することにより、及び/または光の光学コヒーレンスを決定することにより、身体部位における少なくとも1つの組織類型を示す1つ以上の2次元組織学的イメージ(例えば、垂直スライスのイメージ)及び/または3次元組織学的イメージ(例えば、3次元断層写真)を生成することができる。1つ以上の組織類型を含む2次元組織学的イメージまたは3次元組織学的イメージは、可視表面(visible surface)から予め定められた深さ(例えば、約2~4mm)を有するターゲット構造体を有することができる。一実施例において、医療イメージングデバイス100は、1つ以上の3次元組織学的イメージを任意の方向にクロッピング(cropping)したり、スライシングしたりすることによりターゲット構造体の一部分を示す2次元組織学的イメージを生成するように構成され得る。一実施例において、医療イメージングデバイス100は、2次元組織学的イメージに基づいて患者30における身体部位の1つ以上の3次元組織学的イメージを生成するように構成され得る。
患者30における身体部位に対する3次元組織学的イメージまたは2次元組織学的イメージが生成されると、生成された組織学的イメージは、図3を参照して後で詳細に記述される、イメージプロセッシングデバイス(図示せず)に提供され得る。イメージプロセッシングデバイスは、複数の類型の組織を含む組織学的イメージを受信及び/またはプロセッシングするように構成され得る。一実施例において、医療イメージングデバイス100から組織学的イメージが受信されると、イメージプロセッシングデバイスは、組織学的イメージをプロセッシングして組織学的イメージの修正されたイメージ120を生成することができる。
図2は、本開示の一実施例による、医療イメージングデバイス100によりキャプチャされた組織学的イメージ210におけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別し、組織学的イメージ210の修正されたイメージ120を生成するための流れ図である。医療イメージングデバイス100は、患者30の身体部位の組織学的イメージ210(例えば、2次元組織学的イメージ)をキャプチャしたり生成したりして、これをイメージプロセッシングデバイスに提供することができる。例えば、図2に示すように、組織学的イメージ210は、患者30の乳房における少なくとも1つの組織類型を含むことができる。
一実施例において、イメージプロセッシングデバイスは、組織学的イメージ210における候補組織類型を決定し、組織学的イメージ210における候補組織類型に対応するターゲット領域を識別するために組織学的イメージ210を第1オートエンコーダに入力するように構成され得る。第1オートエンコーダは、効率的なコーディングの非指導学習のために用いられる任意の類型の人工神経ネットワークであってもよい。また、第1オートエンコーダは、図4を参照して後で詳細に説明されるように、第1非指導学習モデルを生成するためにトレーニングされ得る。候補組織類型は、組織学的イメージ210における任意の意味のあるまたは疑わしい位置を含むことができる。例えば、候補組織類型は、細胞核、腫瘍、またはこれと類似のものであってもよい。
組織学的イメージ210でターゲット領域が識別されると、イメージプロセッシングデバイスは、1つ以上の組織学的イメージを1つ以上のターゲット組織学的イメージと連関させる予測モデルに基づいて組織学的イメージにおけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別することができる。一実施例において、ターゲット組織学的イメージは、キャプチャされた組織学的イメージの可視性または識別性(discernibility)を改善させるために医療イメージングデバイス100によりキャプチャされた組織学的イメージから修正され得る任意の組織学的イメージであってもよい。少なくとも1つのターゲット組織学的イメージは、そのディスプレイ特性に基づいてキャプチャされたイメージを修正するのに用いられ得る。例えば、組織学的イメージがOCTデバイスによりキャプチャされると、少なくとも1つのターゲット組織学的イメージは、H&E染色の1つ以上のイメージであり得る。一実施例によると、予測モデルは、第1非指導学習モデルの拡張として生成され得、効率的なコーディングの準指導学習のための任意の類型の人工神経ネットワークであってもよい。例えば、準指導マシンラーニング技術と称され得る、非指導マシンラーニング技術と指導マシンラーニング技術をいずれも用いるものが、図6を参照して後で詳細に説明されるように、予測モデルを生成するのに適用され得る。
組織学的イメージ210におけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージが識別されると、イメージプロセッシングデバイスは、少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を組織学的イメージ210に適用することができる。例えば、1つ以上のディスプレイ特性は、組織学的イメージ及びターゲット組織学的イメージで類似の特性を有するポイントまたはパッチのカラー、形状、及び/または鮮明度(sharpness)、ポイントまたはパッチの配列、分布及び/または密度のような1つ以上の特徴を含むことができる。パッチは、イメージをプロセッシングするための単位またはウィンドウ(例えば、8×8ピクセル)であり得る組織学的イメージにおける区域(area)または領域(region)であってもよい。ターゲット組織学的イメージは、そのような単位またはウィンドウに基づいてセグメント化され得る。一実施例によると、イメージプロセッシングデバイスは、識別された組織学的イメージの1つ以上のディスプレイ特性に基づいて組織学的イメージ210の1つ以上のディスプレイ特性を変更することができる。このプロセスにおいて、任意の適切なスタイルの伝達技術が組織学的イメージ210を識別されたターゲット組織学的イメージのスタイルに変更するのに採択され得る。例えば、組織学的イメージ、例えば、イメージ210がOCTデバイスによりキャプチャされると、これはH&E染色、例えば、図2に示されたようなイメージ120の形態に見えるように修正され得る。
一実施例によると、イメージプロセッシングデバイスは、識別されたターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を含む修正されたイメージ120を生成することができる。例えば、イメージプロセッシングデバイスは、ターゲット領域内の各ピクセルのカラー成分の値(例えば、赤色(R)、緑色(G)、青色(B)値)及び鮮明度の値を変更することができる。組織学的イメージ210から修正されたイメージ120に見られるように、赤色(例えば、真紅色)カラーの陰影がターゲット領域に割り当てられ得、ターゲット領域の中心の周囲のある部分は、ターゲット領域の可視性を改善させるために調整される。従って、高品質の可視性を有する修正されたイメージ120は、医者10及び/または20がデバイス100により最初にキャプチャされた組織学的イメージ210を用いるより、患者30をさらに正確に診断できるようにさせ得る。一部の実施例において、医者10及び/または20が手術の間にも修正されたイメージ120を容易に提供され得るように、イメージプロセッシングデバイスは、組織学的イメージ210をプロセッシングして修正されたイメージ120を生成することができる。これと同様に、医療イメージングデバイス100によりキャプチャされた3次元組織学的イメージがイメージプロセッシングデバイスに提供され、ターゲット組織学的イメージのスタイルに修正され得る。この場合に、3次元組織学的イメージの修正されたイメージがディスプレイデバイス110上にディスプレイされ得る。また、医者10及び/または20が3次元組織学的イメージの一部分を選択できると、選択された部分に対応する2次元組織学的イメージの修正されたイメージがディスプレイデバイス110上にディスプレイされ得る。
図3は、本開示の一実施例による、第1オートエンコーダ310、第2オートエンコーダ320、及び指導連関学習機330をトレーニングすることにより予測モデルを生成し、第1オートエンコーダ310及び予測モデルに基づいて組織学的イメージをプロセッシングするように構成されたイメージプロセッシングデバイス300のブロック図を例示している。イメージプロセッシングデバイス300は、プロセッサ305、通信ユニット340、及び/または格納ユニット350を含むことができる。イメージプロセッシングデバイス300におけるプロセッサ305は、第1オートエンコーダ310、第2オートエンコーダ320、指導連関学習機330、及び/またはイメージ生成ユニット360を含むことができる。
イメージプロセッシングデバイス300は、通信ネットワーク370を介して通信ユニット340を通じて医療イメージングデバイス100と通信するように構成される。一部の実施例において、イメージプロセッシングデバイス300は、電気データケーブル及びブルートゥース(登録商標)、ジグビー(ZigBee(登録商標))、赤外線伝送などのような短距離無線ネットワークを含むものの、これらに制限されない、任意の類型の有線/無線接続を介して医療イメージングデバイス100と通信することができる。たとえ、イメージプロセッシングデバイス300が医療イメージングデバイス100と別個のデバイスであるものとして図3に示されていても、一部の実施例において、医療イメージングデバイス100とイメージプロセッシングデバイス300は、単一デバイス内に統合され得る。
プロセッサ305における第1オートエンコーダ310は、格納ユニット350から複数の組織学的イメージ及び複数のサンプル組織学的イメージを受信するように構成され得る。また、第1オートエンコーダ310は、受信された組織学的イメージ及び複数のサンプル組織学的イメージに基づいてトレーニングされ得、それにより第1非指導学習モデルを生成することができる。K-平均クラスタリング( K-means clustering)等を含むものの、これに制限されない任意の適切な非指導学習技術が第1オートエンコーダ310をトレーニングするのに用いられ得る。これと同様に、プロセッサ305における第2オートエンコーダ320は、格納ユニット350から複数のターゲット組織学的イメージ及び複数のサンプルターゲット組織学的イメージを受信し、受信されたターゲット組織学的イメージ及び複数のサンプルターゲット組織学的イメージに基づいてトレーニングされて、第2非指導学習モデルを生成するように構成され得る。第1オートエンコーダ310は、組織学的イメージの効率的なコーディングの非指導学習のために用いられる人工神経ネットワークを含むことができるのに対し、第2オートエンコーダ320は、ターゲット組織学的イメージの効率的なコーディングの非指導学習のために用いられる人工神経ネットワークを含むことができる。一部の実施例において、第1オートエンコーダ310及び第2オートエンコーダ320は、積層オートエンコーダ(stacked autoencoders)、多層コンボリューションオートエンコーダ(multi-layer convolutional autoencoders)等を含む、多層オートエンコーダを含むことができる。たとえ、オートエンコーダが非指導学習ユニットまたは方法の一例として例示されていても、GAN(generative adversarial networks)、SOM(self-organizing map)、ART(adaptive resonance theory)、k-平均クラスタリング 、及び/またはEM(expectation-maximization)アルゴリズムを含むものの、これらに制限されない、任意の他の適切な類型の非指導マシンラーニング方法がそのようなユニットに対して用いられ得る。また、たとえ、組織学的イメージ、サンプル組織学的イメージ、ターゲット組織学的イメージ、及び/またはサンプルターゲット組織学的イメージが格納ユニット350に格納されたものとして例示されていても、イメージの少なくとも一部は、1つ以上の外部格納ユニットに格納され得る。
プロセッサ305は、第1非指導学習モデルを生成するために複数のサンプル組織学的イメージに基づいて第1オートエンコーダ310をトレーニングするように構成され得る。第1非指導学習モデルは、格納ユニット350に格納され得るか、または第1オートエンコーダ310内に統合され得る。一実施例において、第1オートエンコーダ310は、サンプル組織学的イメージのそれぞれにおいてセマンティックセグメント化(semantic segmentation)を行うように(例えば、ターゲット領域を識別するように)トレーニングされ得る。セマンティックセグメント化の間、第1オートエンコーダ310は、サンプル組織学的イメージのそれぞれにおける候補組織類型を決定し、サンプル組織学的イメージにおける候補組織類型に対応するターゲット領域を識別するようにトレーニングされ得る。このプロセスにおいて、第1オートエンコーダ310は、サンプル組織学的イメージから特徴を抽出し、サンプル組織学的イメージを、サンプル組織学的イメージからの特徴と類似の特徴を有するグループに分類するように構成され得る。例えば、第1オートエンコーダ310は、サンプル組織学的イメージからの特徴と第1非指導学習モデルにおける特徴またはパラメータのそれぞれ(例えば、人工神経ネットワークの隠匿階層)間の類似度(例えば、距離または確率)を決定し、第1非指導学習モデルにおける特徴またはパラメータからサンプル組織学的イメージに対して最も大きい類似度(similarity)(例えば、最も小さい距離)を有する特徴またはパラメータのセットを選択することができる。この場合に、第1非指導学習モデルにおける特徴またはパラメータは、1つ以上のサンプル組織学的イメージで抽出された特徴に基づいて生成され得、ネットワークのトポロジー(例えば、階層の数及び幅、フィルターサイズなど)、活性化関数など、及びそのネットワークの学習された加重値及びバイアスのようなモデルハイパーパラメータとして表現され得る。
サンプル組織学的イメージに対して最も大きい類似度を有する特徴またはパラメータのセットが選択されると、サンプル組織学的イメージは、第1非指導学習モデルにおける選択された特徴またはパラメータのセットに対応するように決定され得る。第1オートエンコーダ310は続けて、サンプル組織学的イメージにおける候補組織類型を決定し、第1非指導学習モデルにおける選択された特徴またはパラメータのセットに基づいて候補組織類型に対応するターゲット領域を識別することができる。このプロセスにおいて、第1オートエンコーダ310は、選択された特徴またはパラメータのセットに基づいてサンプル組織学的イメージにおけるターゲット領域を含む複数の領域を識別することができる。例えば、複数の領域は、第1非指導学習モデルにおける選択された特徴またはパラメータと連関した複数の領域に対応することができる。この場合に、複数の領域は、1つ以上の組織細胞、空気などを示すことができる。
プロセッサ305は、サンプル組織学的イメージのそれぞれにおいてセマンティックセグメント化を行うことにより第1非指導学習モデルを生成するように第1オートエンコーダ310をトレーニングすることができる。一実施例において、第1オートエンコーダ310は、サンプル組織学的イメージをサンプル組織学的イメージの特徴に対応する選択された特徴またはパラメータのセットを有するグループに分類することができる。このプロセスにおいて、グループと連関したパラメータは、組織学的イメージにおける識別されたターゲット領域または識別された複数の領域に対する抽出された特徴に基づいてアップデートされたり調整されたりする。組織学的イメージにおける候補組織類型に対応する、ターゲット領域を含む識別された複数の領域が識別され、組織学的イメージの修正されたイメージを生成するためにイメージ生成ユニット360に提供され得る。一部の実施例において、第1オートエンコーダ310は、医療イメージングデバイス100によりキャプチャされた組織学的イメージを受信することができ、サンプル組織学的イメージと類似の方式で組織学的イメージでセマンティックセグメント化を行うようにトレーニングされ得る。
第2オートエンコーダ320は、第2非指導学習モデルを生成するために受信されたターゲット組織学的イメージ及びサンプルターゲット組織学的イメージに基づいてトレーニングされ得る。第2非指導学習モデルは、格納ユニット350に格納され得るか、または第2オートエンコーダ320内に統合され得る。一実施例によると、第2オートエンコーダ320は、第2非指導学習モデルを生成するために第1オートエンコーダ310と類似の方式でトレーニングされ得る。このプロセスにおいて、第2オートエンコーダ320は、受信されたターゲット組織学的イメージ及びサンプルターゲット組織学的イメージのそれぞれから1つ以上の特徴を抽出することができる。続いて、第2非指導学習モデルは、抽出された特徴に基づいて第1非指導学習モデルのものと類似の方式でターゲット組織学的イメージ及びサンプルターゲット組織学的イメージをグループ化し、第2非指導学習モデルを生成することができる。生成された第2指導学習モデルは、プロセッサ305における指導連関学習機330によりアクセスされ得る。
指導連関学習機330は、図6を参照して詳細に説明されるように、本開示の一実施例による、マッチングするイメージのゴールデンセットに基づいて第2非指導学習モデルを第1非指導学習モデルと連関させることにより予測モデルを生成するように構成され得る。マッチングするイメージのゴールデンセットは、1つ以上のサンプル組織学的イメージ及びサンプル組織学的イメージに対応する1つ以上のサンプルターゲット組織学的イメージを含むことができる、任意のイメージセットを示すことができる。マッチングするイメージのゴールデンセットにおいて、サンプル組織学的イメージのそれぞれは、サンプルターゲット組織学的イメージのそれぞれのものと同一の人体内の組織または解剖学的位置を含むことができる。例えば、指導連関学習機330は、第1非指導学習モデルにおける特定の組織類型に対応するターゲット領域を含む組織学的イメージ内の複数の領域を組織学的イメージに対応するサンプルターゲット組織学的イメージ内の複数の領域の1つ以上のディスプレイ特性を示す特徴と連関させ得る。一実施例において、予測モデルは、ネットワークのトポロジー(例えば、階層の数及び幅、フィルターサイズなど)、活性化関数など及びそのネットワークの学習された加重値及びバイアスのようなモデルハイパーパラメータのようなパラメータにより定義され得るディープラーニング神経ネットワーク基盤の構造として表現され得る。例えば、予測モデルのパラメータは、複数のディスプレイ特性を、例えば、ターゲット組織学的イメージ、サンプルターゲット組織学的イメージ、組織学的イメージ、及びサンプル組織学的イメージと連関させるためのマッピングまたは伝達関数を表現することができる。
イメージプロセッシングデバイス300における格納ユニット350は、医療イメージングデバイス100によりキャプチャされたサンプル組織学的イメージの第1データベース及び/または少なくとも1つの予め定められた組織染色の少なくとも1つのイメージを含むサンプルターゲット組織学的イメージの第2データベースを格納するように構成される。例えば、第2データベースは、H&E染色のサンプル組織学的イメージを含むことができる。一実施例において、格納ユニット350は、第1オートエンコーダ310により生成された第1非指導学習モデル及び第2オートエンコーダ320により生成された第2非指導学習モデルを含むことができる。たとえ、格納ユニット350が本実施例においてイメージプロセッシングデバイス300の一部であるものとして例示されていても、格納ユニット350は、イメージプロセッシングデバイス300と通信するように構成され得る外部デバイスに少なくとも部分的に含まれ得る。格納ユニット350は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)等のような任意の適切な格納またはメモリーデバイスを用いて具現され得る。
格納ユニット350は、サンプル組織学的イメージの第1データベース内の予め定められた数(例えば、正の整数M)のサンプル組織学的イメージ及びサンプルターゲット組織学的イメージの第2データベース内の予め定められた数(例えば、正の整数N)のサンプルターゲット組織学的イメージを含む、マッチングするイメージのゴールデンセットも格納することができる。第1データベース内のM個のサンプル組織学的イメージの1つ以上の特徴(例えば、解剖学的位置)は、第2データベース内のN個のサンプルターゲット組織学的イメージの1つ以上の特徴(例えば、解剖学的位置)とマッチングするように連関したり整列したりすることができる。例えば、M個のサンプル組織学的イメージのそれぞれにおけるボクセルまたはピクセルは、N個のサンプル組織学的イメージのそれぞれにおけるそれらと同一の位置を有する。
イメージプロセッシングデバイス300におけるイメージ生成ユニット360は、第1オートエンコーダ310から組織学的イメージに対するターゲット領域を受信し、ターゲット領域の可視性を改善させるために組織学的イメージを修正するように構成される。一実施例によると、イメージ生成ユニット360は、予測モデルに基づいて組織学的イメージにおけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別することができる。イメージ生成ユニット360は続いて、少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を組織学的イメージに適用することができる。一実施例によると、少なくとも1つのターゲット組織学的イメージにおける複数の領域のそれぞれに対する1つ以上のディスプレイ特性は、組織学的イメージにおける対応する領域のそれぞれに適用され得る。この場合に、ディスプレイ特性は、少なくとも1つのターゲット組織学的イメージと連関したイメージスタイルを示すことができ、例えば、少なくとも1つのターゲット組織学的イメージで類似の特性を有するポイントまたはパッチのカラー、形状、及び/または鮮明度、ポイントまたはパッチの配列、分布及び/または密度のような1つ以上の特徴またはパラメータを含むことができる。少なくとも1つのターゲット組織学的イメージに対するディスプレイ特性を組織学的イメージに適用することにより、組織学的イメージのイメージスタイルが少なくとも1つのターゲット組織学的イメージのイメージスタイルに伝えられ得る。適用されたディスプレイ特性を含む組織学的イメージの修正されたイメージが生成され、修正されたイメージを医師のようなユーザにディスプレイするために、ディスプレイユニットに提供され得る。
図4は、本開示の一実施例による、第1サンプルイメージデータベース410内のサンプル組織学的イメージ及び組織学的イメージ420に基づいて第1非指導学習モデル430を生成するようにトレーニングされるように構成された第1オートエンコーダ310のブロック図を示している。第1オートエンコーダ310は、区域セグメント化ユニット440、特徴抽出ユニット450、組織類型決定ユニット460、ターゲット領域識別ユニット470、及びモデル生成ユニット480を含むことができる。第1サンプルイメージデータベース410は、医療イメージングデバイス100(例えば、OCTデバイス)によりキャプチャされたサンプル組織学的イメージを含むことができる。たとえ、組織学的イメージ420が第1オートエンコーダ310に入力されるものとして例示されていても、第1オートエンコーダ310をトレーニングするために複数の組織学的イメージが第1オートエンコーダ310に入力され得ることが認識されるであろう。
第1オートエンコーダ310における区域セグメント化ユニット440は、第1サンプルイメージデータベース410から3次元または2次元のサンプル組織学的イメージを受信し、サンプル組織学的イメージのそれぞれにおける1つ以上の区域をセグメント化すように構成される。一実施例において、区域セグメント化ユニット440は、サンプル組織学的イメージにおける複数のパッチをセグメント化することができる。他の実施例によると、サンプル組織学的イメージにおける1つ以上の区域は、明るさ、ポイントの位置などのような1つ以上の類似の特性を有する1つ以上のブロブ(blobs)を決定することによりセグメント化され得る。サンプル組織学的イメージにおけるブロブが決定されると、区域セグメント化ユニット440は、パッチクラスタリングの動作でブロブをクラスタリングすることができる。例えば、予め定められた明るさ値の範囲内にある明るさ値を有して近接して位置する複数のブロブがブロブクラスタにクラスタリングされ得る。セグメント化された区域は、第1オートエンコーダ310における特徴抽出ユニット450に提供され得る。
特徴抽出ユニット450は、区域セグメント化ユニット440からのサンプル組織学的イメージにおけるセグメント化された区域から1つ以上の特徴を抽出するように構成される。一実施例において、特徴抽出ユニット450は、パターン、ポイントの密度、ポイントの分布または空間などのような区域を特徴づける特徴を抽出することができる。例えば、特徴は、スケール-不変特徴変換技術、テンプレートマッチング技術、またはこれと類似のような任意の適切な特徴抽出技術を用いることにより区域から抽出され得る。この場合に、特徴は、数字のセットを含むことができる、特徴ベクタとして表現され得る。抽出された特徴は、第1オートエンコーダ310における組織類型決定ユニット460に提供され得る。
組織類型決定ユニット460は、特徴抽出ユニット450からサンプル組織学的イメージに対する1つ以上の特徴を受信し、サンプル組織学的イメージにおける少なくとも1つの候補組織類型を決定するように構成される。このプロセスにおいて、組織類型決定ユニット460は、サンプル組織学的イメージに関する特徴と類似の第1非指導学習モデル430における1つ以上の特徴またはパラメータのセットを選択することができる。サンプル組織学的イメージにおける少なくとも1つの候補組織類型は、選択されたパラメータまたは特徴のセットに基づいて決定され得る。例えば、組織類型は、任意の正常細胞または腫瘍、癌などのような非正常細胞を特徴づけることができる任意の組織類型を含むことができる。決定された候補組織類型及び選択されたパラメータまたは特徴のセットは、第1オートエンコーダ310におけるターゲット領域識別ユニット470に提供され得る。
ターゲット領域識別ユニット470は、組織類型決定ユニット460からサンプル組織学的イメージにおける候補組織類型及び/または選択されたグループのパラメータまたは特徴を受信し、選択されたパラメータまたは特徴のセットに基づいてサンプル組織学的イメージにおける領域から候補組織類型に対応するターゲット領域を識別するように構成される。一実施例によると、サンプル組織学的イメージにおけるターゲット領域は、第1非指導学習モデル430の選択されたパラメータまたは特徴のセットにより定義される決定された候補組織類型を有する領域に対応するターゲット領域を検出することにより識別され得る。また、ターゲット領域識別ユニット470は、第1非指導学習モデル430における選択されたパラメータまたは特徴のセットに基づいてサンプル組織学的イメージにおけるターゲット領域を含む複数の領域を識別することができる。この場合に、選択されたパラメータまたは特徴のセットは、サンプル組織学的イメージにおけるターゲット領域及び1つ以上の周辺領域を示すことができる。サンプル組織学的イメージにおけるターゲット領域を含む識別された領域に関する特徴は、モデル生成ユニット480に提供され得る。
モデル生成ユニット480は、サンプル組織学的イメージにおける識別された領域に関する特徴を受信し、第1オートエンコーダ310をトレーニングすることにより第1非指導学習モデル430を生成し、トレーニング及び/または調整するように構成され得る。一実施例によると、モデル生成ユニット480は、サンプル組織学的イメージにおけるターゲット領域を含む識別された領域に関する特徴に基づいてサンプル組織学的イメージに対する選択されたパラメータまたは特徴のセットをアップデートしたり調整したりすることができる。サンプル組織学的イメージに対するパラメータまたは特徴のセットが選択されなかった場合、サンプル組織学的イメージから抽出された特徴が第1非指導学習モデル430で新たに分類されたグループを定義するのに用いられ得る。たとえ、本実施例において複数のサンプル組織学的イメージが第1オートエンコーダ310をトレーニングするのに用いられるものとして例示されていても、医療イメージングデバイス100によりキャプチャされた複数の組織学的イメージは、サンプル組織学的イメージと類似の方式で第1オートエンコーダ310をトレーニングするのに用いられ得る。たとえ、第1オートエンコーダ310が個別ユニット440、450、460、470及び480であるものとして例示されていても、第1オートエンコーダ310は、単一ユニットまたは個別ユニット440、450、460、470及び/または480の任意の組み合わせとして具現され得る。また、たとえ、サンプル組織学的イメージがセマンティックセグメント化を行い、第1オートエンコーダ310をトレーニングするのに用いられるものとして例示されていても、組織学的イメージ420は、サンプル組織学的イメージと類似の方式でセマンティックセグメント化を行い、及び/または第1オートエンコーダ310をトレーニングするのに用いられ得る。生成されたまたはアップデートされた第1非指導学習モデル430は、図6を参照して説明されるように、予測モデル620を生成するのに用いられ得る。
図5は、本開示の一実施例による、第2サンプルイメージデータベース510内のサンプル組織学的イメージ及び入力ターゲット組織学的イメージ520に基づいて第2非指導学習モデル530を生成するようにトレーニングされるように構成された第2オートエンコーダ310のブロック図を例示している。第2オートエンコーダ310は、区域セグメント化ユニット540、特徴抽出ユニット550、組織類型決定ユニット560、ターゲット領域識別ユニット570、及びモデル生成ユニット580を含むことができる。一実施例によると、第2サンプルイメージデータベース510は、少なくとも1つの予め定められた組織染色の少なくとも1つのイメージ(例えば、H&E染色のイメージ)を含むサンプルターゲット組織学的イメージを含むことができる。たとえ、ターゲット組織学的イメージ520が第2オートエンコーダ320に入力されるものとして例示されていても、第2オートエンコーダ310をトレーニングするために複数のターゲット組織学的イメージが第2オートエンコーダ310に入力され得ることが認識されるであろう。
第2オートエンコーダ320は、サンプルターゲット組織学的イメージ及びターゲット組織学的イメージにセマンティックセグメント化を行い、第2非指導学習モデル530を生成し、トレーニング及び/またはアップデートするように構成され得る。このために、第2オートエンコーダ320における領域セグメント化ユニット540、特徴抽出ユニット550、組織類型決定ユニット560、ターゲット領域識別ユニット570、及びモデル生成ユニット580はそれぞれ、領域セグメント化ユニット440、特徴抽出ユニット450、組織類型決定ユニット460、ターゲット領域識別ユニット470、及びモデル生成ユニット480と類似の機能または動作を行うことができる。生成されたまたはアップデートされた第2非指導学習モデル530は、図6を参照して説明されるように、予測モデル620を生成するのに用いられ得る。
図6は、本開示の一実施例による、マッチングするイメージのゴールデンセット610に基づいて第2非指導学習モデル530を第1非指導学習モデル430と連関させることにより予測モデル620を生成するように構成されたイメージプロセッシングデバイス300における指導連関学習機330を示している。一実施例において、予測モデルは、ディープラーニング神経ネットワーク基盤の構造を示すことができる。予測モデルは、ネットワークのトポロジー(例えば、階層の数及び幅、フィルターサイズなど)、活性化関数など及びそのネットワークの学習された加重値及びバイアスのようなモデルハイパーパラメータにより定義され得る複数のパラメータを含むことができる。予測モデル620におけるパラメータは、組織学的イメージ及びターゲット組織学的イメージのそれぞれに対する1つ以上のディスプレイ特性を示す1つ以上の特徴を含むことができる。
一実施例において、予測モデル620は、組織学的イメージのそれぞれにおける第1パッチセット、及びターゲット組織学的イメージのそれぞれにおける第2パッチセットを含むことができ、ここで予測モデルにおいて第1パッチセットは第2パッチセットと連関する。イメージ生成ユニット360は、少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を適用し、及び/または識別された少なくとも1つのターゲット組織学的イメージにおける第2パッチセットに基づいて受信された組織学的イメージにおける複数のパッチを修正することにより修正されたイメージ720を生成することができる。
マッチングするイメージのゴールデンセット610は、第1サンプルイメージデータベース410内の1つ以上のサンプル組織学的イメージ及び第2サンプルイメージデータベース510内の1つ以上のサンプルターゲット組織学的イメージを含むことができ、ここでサンプル組織学的イメージは、サンプルターゲット組織学的イメージの解剖学的位置とマッチングするように整列する。一実施例によると、サンプル組織学的イメージは、1つ以上のサンプルターゲット組織学的イメージのそれぞれの解剖学的位置と同一の解剖学的位置を有することができる。これと同様に、サンプルターゲット組織学的イメージは、1つ以上のサンプル組織学的イメージのそれぞれの解剖学的位置と同一の解剖学的位置を有することができる。
指導連関学習機330は、マッチングするイメージのゴールデンセット610内のサンプルターゲット組織学的イメージから抽出される1つ以上のディスプレイ特性を示す少なくとも1つの特徴をマッチングするイメージのゴールデンセット610内の1つ以上のサンプル組織学的イメージと連関させるように構成される。このプロセスにおいて、サンプルターゲット組織学的イメージからの少なくとも1つの特徴は、第2非指導学習モデル530に含まれ得るサンプル組織学的イメージのそれぞれにおける複数の領域に相関することができる。これにより、第2非指導学習モデル530におけるサンプルターゲット組織学的イメージ(例えば、H&E染色のイメージ)からの少なくとも1つの特徴に対応する既存のまたは知られているディスプレイ特性が、第1非指導学習モデル430におけるサンプル組織学的イメージ(例えば、M2TMのイメージ)のそれぞれにおける複数の領域からの特徴に伝えられ得る。予測モデル620は続いて、サンプルターゲット組織学的イメージ(即ち、H&E染色のイメージ)からの少なくとも1つの特徴をサンプル組織学的イメージ(例えば、M2TMのイメージ)と連関させることにより生成されたりトレーニングされたりし得る。例えば、予測モデルは、第1及び第2非指導学習モデルに対する類似度メトリックを生成するようにトレーニングされ得る。
指導連関学習機330は、予測モデル620をトレーニング及び/またはアップデートするために、マッチングするイメージのゴールデンセット610における1つ以上のサンプルターゲット組織学的イメージのそれぞれに対して1つ以上のラベルを用いるように構成される。ラベルは、サンプルターゲット組織学的イメージにおける1つ以上の領域を識別する任意のデータまたは情報(例えば、細胞核、腫瘍など)を示すことができる。サンプルターゲット組織学的イメージにおける領域に対するラベルは、実験者またはユーザにより入力され得るサンプルターゲット組織学的イメージに対するデータまたは情報に基づいて決定され得る。指導連関学習機330は、予測モデル620をトレーニングするために第2サンプルイメージデータベース510のサンプルターゲット組織学的イメージに対するラベルを対応するサンプル組織学的イメージに割り当てることができる。
一実施例において、第1非指導学習モデル430、第2非指導学習モデル530、及び予測モデル620のそれぞれは、人工神経ネットワークの1つ以上のモデルハイパーパラメータ及び/または1つ以上の加重値により定義された多層モデルを含むことができる。
図7は、本開示の一実施例による、予測モデル620に基づいて組織学的イメージ710の修正されたイメージ720を生成するために用いられるプロセッサ305におけるイメージ生成ユニット360及び第1オートエンコーダ310のブロック図を示している。プロセッサ305は、任意の医療イメージングデバイス(例えば、医療イメージングデバイス100)によりキャプチャされ得る組織学的イメージ710を受信し、組織学的イメージ710の可視性を改善させるために組織学的イメージ710の修正されたイメージ720を生成することができる。このプロセスにおいて、プロセッサ305は、組織学的イメージ710を修正するために予測モデル620にアクセスすることができる。
プロセッサ305における第1オートエンコーダ310は、受信された組織学的イメージにセマンティックセグメント化を行うことができる。一実施例によると、第1オートエンコーダ310は組織学的イメージでセグメント化を行い、組織学的イメージから1つ以上の特徴を抽出することができる。特徴に基づいて、第1オートエンコーダ310は、組織学的イメージを抽出された特徴と類似の特徴またはパラメータを有するグループに分類することができる。グループの特徴またはパラメータに基づいて、組織学的イメージにおける候補組織類型が決定され得、候補組織類型に対応するターゲット領域が識別され得る。このプロセスにおいて、ターゲット領域を含む複数の領域は、抽出された特徴をグループの選択された特徴またはパラメータと比較することにより識別され得る。ターゲット領域を含む識別された領域は、続いてプロセッサ305におけるイメージ生成ユニット360に提供され得る。
イメージ生成ユニット360は、組織学的イメージにおける識別された領域を受信し、予測モデル620に基づいて修正されたイメージ720を生成するように構成され得る。一実施例によると、イメージ生成ユニット360は、予測モデル620でターゲット領域に関する特徴に対応する少なくとも1つのターゲット組織学的イメージに対する1つ以上のディスプレイ特性を示す特徴を識別するように構成され得る。例えば、イメージ生成ユニット360は、識別された領域の特徴と類似の1つ以上の組織学的イメージに対するグループの特徴を検出し、組織学的イメージに対するグループに相関する少なくとも1つのターゲット組織学的イメージに対するグループの特徴を識別することができる。少なくとも1つのターゲット組織学的イメージに対するグループの特徴と連関した1つ以上のディスプレイ特性が組織学的イメージ710の識別された領域のそれぞれに適用され得る。例えば、1つ以上のディスプレイ特性は、少なくとも1つのターゲット組織学的イメージに対するグループにおけるパッチ(例えば、n×nピクセル、ここで、nは正の整数である)等のカラー、形状、配列、分布、密度、鮮明度のような複数の特徴と連関する。一実施例によると、イメージプロセッシングデバイスは、少なくとも1つのターゲット組織学的イメージに対するグループの1つ以上のディスプレイ特性に基づいて組織学的イメージ710の1つ以上のディスプレイ特性を変更することができる。このプロセスにおいて、組織学的イメージ710を少なくとも1つのターゲット組織学的イメージに対するグループのスタイルに変更するために任意の適切なスタイルの伝達技術が採択され得る。一実施例によると、イメージ生成ユニット360は、少なくとも1つのターゲット組織学的イメージのグループと連関した特徴に基づいて組織学的イメージ710で組織学的イメージ710の識別された領域を修正することにより修正されたイメージ720を生成することができる。修正されたイメージ720は、続いて修正されたイメージ720から識別され得る疾病または疾患を診断するためにディスプレイユニット(例えば、ディスプレイデバイス110)上にディスプレイされ得る。
一実施例において、イメージ生成ユニット360は、CycleGAN技術により具現され得る、サイクル一貫性のある敵対ネットワーク(cycle-consistent adversarial networks)のような1つ以上の知られている生成的ネットワーク(generative networks)を用いて組織学的イメージ710の修正されたイメージ720を生成することができる。この場合に、予測モデル620は、サイクル一貫性のある敵対ネットワークによりトレーニングされ得る。このプロセスにおいて、第1マッピング関数Gと第1敵対判別機(adversarial discriminator)Dは、1つ以上のサンプルターゲット組織学的イメージに基づいて1つ以上のサンプル組織学的イメージを変換(translate)及び/または修正するのに用いられ得るのに対し、第2マッピング関数Fと第2敵対判別機Dは、サンプル組織学的イメージに基づいてサンプルターゲット組織学的イメージを変換及び/または修正するのに用いられ得る。そのようなマッピングを調節するために、サンプル組織学的イメージが第1マッピング関数及び第1敵対判別機を用いてサンプルターゲット組織学的イメージに変換される時に、第1サイクル一貫性損失(cycle consistency loss)が決定され得る。これと同様に、サンプルターゲット組織学的イメージが第2マッピング関数及び第2敵対判別機を用いてサンプル組織学的イメージに変換される時に、第2サイクル一貫性損失が決定され得る。サンプル組織学的イメージ及びサンプルターゲット組織学的イメージに対する予測モデルは、第1及び第2マッピング関数、第1及び第2敵対判別機、及び/または第1及び第2サイクル一貫性損失に基づいて生成され得る。CycleGAN技術により生成された予測モデルに基づいて、組織学的イメージ710(例えば、M2TMのイメージ)は、イメージ720(例えば、H&E染色のイメージ)に修正され得る。
図8は、本開示の一実施例による、医療イメージングデバイスによりキャプチャされた組織学的イメージを受信し、例えば、第1オートエンコーダ(例えば、第1オートエンコーダ310)及び予測モデル(例えば、予測モデル620)を用いて組織学的イメージの修正されたイメージを生成するための方法800のフローチャートを示している。方法800は、コンピュータ、プロセッサ、医療デバイス、イメージプロセッシングデバイス、または医療デバイスの一部であるモジュールにより行われ得る。一実施例において、非一時的コンピュータ読み取り可能格納媒体は、1つ以上の組織学的イメージをプロセッシングするための命令語を含むことができ、この命令語は、コンピュータのプロセッサに方法800を行わせる。最初に、イメージプロセッシングデバイス(例えば、イメージプロセッシングデバイス300)は、810において、少なくとも1つの組織類型を含む組織学的イメージを受信することができる。820において、イメージプロセッシングデバイスにおける第1オートエンコーダは、受信された組織学的イメージにおける候補組織類型を決定することができる。830において、第1オートエンコーダは、組織学的イメージにおける候補組織類型に対応するターゲット領域を識別することができる。
840において、モデル生成ユニット(例えば、モデル生成ユニット480)は、予測モデルに基づいて組織学的イメージにおけるターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別することができる。予測モデルは、非指導ディープラーニング技術及び指導ディープラーニング技術の任意の適切な組み合わせに基づいて生成され得る。850において、イメージ生成ユニット(例えば、イメージ生成ユニット360)は、組織学的イメージを修正するために、識別された少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を組織学的イメージに適用することができる。修正されたイメージは、ターゲット領域の可視性を改善させ得る。
図9は、本開示の一実施例による、第1及び第2非指導学習モデルを生成するために第1及び第2オートエンコーダ(例えば、第1及び第2オートエンコーダ310及び320)をトレーニングして、マッチングするイメージのゴールデンセットに基づいて第2非指導学習モデルを第1非指導学習モデルと連関させることにより予測モデル(例えば、予測モデル620)を生成するための方法900のフローチャートである。方法900は、コンピュータ、プロセッサ、医療デバイス、イメージプロセッシングデバイス、または医療デバイスの一部であるモジュールにより行われ得る。一実施例において、非一時的コンピュータ読み取り可能格納媒体は、1つ以上の組織学的イメージをプロセッシングするための命令語を含むことができ、この命令語はコンピュータのプロセッサに、方法900を行わせる。最初に、プロセッサ(例えば、プロセッサ305)は、910において、第1非指導学習モデルを生成するために第1サンプル組織学的イメージセットに基づいて第1オートエンコーダ(例えば、第1オートエンコーダ310)をトレーニングすることができる。920において、プロセッサは、第2非指導学習モデルを生成するために第2サンプルターゲット組織学的イメージセットに基づいて第2オートエンコーダ(例えば、第2オートエンコーダ320)をトレーニングすることができる。指導連関学習機(例えば、指導連関学習機330)は、930において、マッチングするイメージのゴールデンセットに基づいて第1非指導学習モデルを第2非指導学習モデルと連関させ得る。940において、予測モデル620は、医療イメージングデバイス(例えば、医療イメージングデバイス100)によりキャプチャされた入力組織学的イメージをプロセッシングするために生成及び/またはトレーニングされて用いられ得る。
本開示の思想または範囲を逸脱することなく本開示に多様な修正及び変形が行われ得るということが、本技術分野の通常の技術者には明白であろう。従って、本開示の修正及び変形が添付の請求項及びその等価物の範囲内にありさえすれば、本開示がそのような修正及び変形をカバーするものとして意図される。

Claims (9)

  1. 医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするために、コンピュータにより行われる方法であって、
    少なくとも1つの組織類型を含む前記組織学的イメージを受信する段階と、
    第1オートエンコーダにより、前記組織学的イメージで候補組織類型を決定する段階と、
    前記第1オートエンコーダにより、前記組織学的イメージで前記候補組織類型に対応するターゲット領域を識別する段階と、
    1つ以上のサンプル組織学的イメージを1つ以上のサンプルターゲット組織学的イメージと連関させる予測モデルに基づいて前記組織学的イメージで前記ターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別する段階と
    前記識別された少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を前記組織学的イメージに適用する段階と、
    前記適用された1つ以上のディスプレイ特性を含む前記組織学的イメージの修正されたイメージを生成する段階と、
    を含み、
    第1サンプル組織学的イメージセットに基づいて前記第1オートエンコーダをトレーニングすることにより第1非指導学習モデルが生成され、
    第2サンプルターゲット組織学的イメージセットに基づいて第2オートエンコーダをトレーニングすることにより第2非指導学習モデルが生成され、
    前記予測モデルは、前記第1非指導学習モデル及び前記第2非指導学習モデルに基づいて生成され、
    前記第1サンプル組織学的イメージセットにおけるM個のサンプル組織学的イメージの1つ以上の解剖学的位置は、前記第2サンプルターゲット組織学的イメージセットにおけるN個のサンプルターゲット組織学的イメージの1つ以上の解剖学的位置とマッチングするように整列し、M及びNは正の整数であり、
    前記予測モデルは、1つ以上のディスプレイ特性を示す1つ以上の特徴に関するデータ
    を含み、前記N個のサンプルターゲット組織学的イメージからの1つ以上の特徴を前記M個のサンプル組織学的イメージからの1つ以上の特徴と連関させることによりトレーニングされる、
    方法。
  2. 前記予測モデルは、前記サンプル組織学的イメージのそれぞれにおける第1パッチセット及び前記サンプルターゲット組織学的イメージのそれぞれにおける第2パッチセットを含み、
    前記予測モデルにおいて前記第1パッチセットは前記第2パッチセットと連関し、
    前記1つ以上のディスプレイ特性を適用する段階は、前記識別された少なくとも1つのターゲット組織学的イメージにおける前記第2パッチセットに基づいて前記受信された組織学的イメージにおける複数のパッチを修正する段階を含む、請求項1に記載の方法。
  3. 前記候補組織類型に対応する前記ターゲット領域を識別する段階は、前記組織学的イメージで前記ターゲット領域を含む複数の領域を識別する段階を含み、
    前記予測モデルは、前記サンプル組織学的イメージのそれぞれにおける第1領域セット、及び前記サンプルターゲット組織学的イメージのそれぞれにおける第2領域セットを含み、
    前記予測モデルにおいて前記第1領域セットは前記第2領域セットと連関し、
    前記1つ以上のディスプレイ特性を適用する段階は、前記識別された少なくとも1つのターゲット組織学的イメージにおける前記第2領域セットに基づいて前記受信された組織学的イメージにおける前記複数の領域を修正する段階を含む、請求項1に記載の方法。
  4. 前記第1非指導学習モデルは、前記組織学的イメージにおける前記ターゲット領域と連関した1つ以上の特徴に基づいてトレーニングされる、請求項1に記載の方法。
  5. 前記第1非指導学習モデル、前記第2非指導学習モデル、及び前記予測モデルのそれぞれは、人工神経ネットワークの1つ以上のモデルハイパーパラメータ(model hyperparameters)及び1つ以上の加重値により定義された多層モデル(multilayer model)を含む、請求項1に記載の方法。
  6. 医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするためのイメージプロセッシングデバイスであって、
    少なくとも1つの組織類型を含む前記組織学的イメージを受信し、前記組織学的イメージで候補組織類型を決定し、前記組織学的イメージで前記候補組織類型に対応するターゲット領域を識別するように構成された第1オートエンコーダと、
    1つ以上のサンプル組織学的イメージを1つ以上のサンプルターゲット組織学的イメージと連関させる予測モデルに基づいて前記組織学的イメージで前記ターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別し、前記識別された少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を前記組織学的イメージに適用し、前記適用された1つ以上のディスプレイ特性を含む前記組織学的イメージの修正されたイメージを生成するように構成されたイメージ生成ユニットと
    を含み、
    第1サンプル組織学的イメージセットに基づいて前記第1オートエンコーダをトレーニングすることにより第1非指導学習モデルが生成され、
    第2サンプルターゲット組織学的イメージセットに基づいて第2オートエンコーダをトレーニングすることにより第2非指導学習モデルが生成され、
    前記予測モデルは、前記第1非指導学習モデル及び前記第2非指導学習モデルに基づいて生成され、
    前記第1サンプル組織学的イメージセットにおけるM個のサンプル組織学的イメージの1つ以上の解剖学的位置は、前記第2サンプルターゲット組織学的イメージセットにおけるN個のサンプルターゲット組織学的イメージの1つ以上の解剖学的位置とマッチングするように整列し、M及びNは正の整数であり、
    前記予測モデルは、1つ以上のディスプレイ特性を示す1つ以上の特徴に関するデータを含み、前記N個のサンプルターゲット組織学的イメージからの1つ以上の特徴を前記M個のサンプル組織学的イメージからの1つ以上の特徴と連関させることによりトレーニングされる、
    イメージプロセッシングデバイス。
  7. 前記第1オートエンコーダは、前記組織学的イメージで前記ターゲット領域を含む複数の領域を識別するようにさらに構成され、
    前記予測モデルは、前記サンプル組織学的イメージのそれぞれにおける第1領域セット、及び前記サンプルターゲット組織学的イメージのそれぞれにおける第2領域セットを含み、
    前記予測モデルにおいて前記第1領域セットは前記第2領域セットと連関し、
    前記イメージ生成ユニットは、前記識別された少なくとも1つのターゲット組織学的イメージにおける前記第2領域セットに基づいて前記受信された組織学的イメージにおける前記複数の領域を修正するようにさらに構成される、請求項6に記載のイメージプロセッシングデバイス。
  8. 組織学的イメージをプロセッシングするための命令語を含む非一時的コンピュータ読み取り可能格納媒体であって、前記命令語はコンピュータのプロセッサに動作を行わせ、前記動作は、
    少なくとも1つの組織類型を含む前記組織学的イメージを受信する動作と、
    第1オートエンコーダにより、前記組織学的イメージで候補組織類型を決定する動作と、
    第1オートエンコーダにより、前記組織学的イメージで前記候補組織類型に対応するターゲット領域を識別する動作と、
    1つ以上のサンプル組織学的イメージを1つ以上のサンプルターゲット組織学的イメージと連関させる予測モデルに基づいて、前記組織学的イメージで前記ターゲット領域に対応する少なくとも1つのターゲット組織学的イメージを識別する動作と
    前記識別された少なくとも1つのターゲット組織学的イメージと連関した1つ以上のディスプレイ特性を前記組織学的イメージに適用する動作と、
    前記適用された1つ以上のディスプレイ特性を含む前記組織学的イメージの修正されたイメージを生成する動作と、
    を含み、
    第1サンプル組織学的イメージセットに基づいて前記第1オートエンコーダをトレーニングすることにより第1非指導学習モデルが生成され、
    第2サンプルターゲット組織学的イメージセットに基づいて第2オートエンコーダをトレーニングすることにより第2非指導学習モデルが生成され、
    前記予測モデルは、前記第1非指導学習モデル及び前記第2非指導学習モデルに基づいて生成され、
    前記第1サンプル組織学的イメージセットにおけるM個のサンプル組織学的イメージの1つ以上の解剖学的位置は、前記第2サンプルターゲット組織学的イメージセットにおけるN個のサンプルターゲット組織学的イメージの1つ以上の解剖学的位置とマッチングするように整列し、M及びNは正の整数であり、
    前記予測モデルは、1つ以上のディスプレイ特性を示す1つ以上の特徴に関するデータ
    を含み、前記N個のサンプルターゲット組織学的イメージからの1つ以上の特徴を前記M個のサンプル組織学的イメージからの1つ以上の特徴と連関させることによりトレーニングされる、
    格納媒体。
  9. 前記候補組織類型に対応する前記ターゲット領域を識別する動作は、前記組織学的イメージで前記ターゲット領域を含む複数の領域を識別する動作を含み、
    前記予測モデルは、前記サンプル組織学的イメージのそれぞれにおける第1領域セット、及び前記サンプルターゲット組織学的イメージのそれぞれにおける第2領域セットを含み、
    前記予測モデルにおいて前記第1領域セットは前記第2領域セットと連関し、
    前記1つ以上のディスプレイ特性を適用する動作は、前記識別された少なくとも1つのターゲット組織学的イメージにおける前記第2領域セットに基づいて前記受信された組織学的イメージにおける前記複数の領域を修正する動作を含む、請求項8に記載の格納媒体。
JP2019566558A 2017-02-21 2018-02-21 医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするための方法及び装置 Active JP7226895B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762461490P 2017-02-21 2017-02-21
US62/461,490 2017-02-21
US201762563751P 2017-09-27 2017-09-27
US62/563,751 2017-09-27
PCT/KR2018/002118 WO2018155898A1 (en) 2017-02-21 2018-02-21 Method and apparatus for processing histological image captured by medical imaging device

Publications (2)

Publication Number Publication Date
JP2020508536A JP2020508536A (ja) 2020-03-19
JP7226895B2 true JP7226895B2 (ja) 2023-02-21

Family

ID=63252850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019566558A Active JP7226895B2 (ja) 2017-02-21 2018-02-21 医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするための方法及び装置

Country Status (6)

Country Link
US (1) US11984217B2 (ja)
EP (1) EP3586306A4 (ja)
JP (1) JP7226895B2 (ja)
KR (1) KR102622542B1 (ja)
CN (1) CN110326024B (ja)
WO (1) WO2018155898A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11783603B2 (en) * 2018-03-07 2023-10-10 Verily Life Sciences Llc Virtual staining for tissue slide images
JP7181001B2 (ja) * 2018-05-24 2022-11-30 日本電子株式会社 生物組織画像処理システム及び機械学習方法
JP6981940B2 (ja) * 2018-08-29 2021-12-17 富士フイルム株式会社 画像診断支援装置、方法及びプログラム
US20220058839A1 (en) * 2018-12-31 2022-02-24 Oregon Health & Science University Translation of images of stained biological material
CN113498323A (zh) * 2019-02-26 2021-10-12 富士胶片株式会社 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序
US20220198689A1 (en) * 2019-04-10 2022-06-23 The Board Of Trustees Of The Leland Stanford Junior University High Resolution Alignment of 3D Imaging with 2D Imaging
US10996306B2 (en) * 2019-04-25 2021-05-04 General Electric Company MRI system and method using neural network for detection of patient motion
JP2021029258A (ja) * 2019-08-13 2021-03-01 ソニー株式会社 手術支援システム、手術支援方法、情報処理装置、及び情報処理プログラム
US11633145B2 (en) * 2019-10-21 2023-04-25 The Trustees Of Dartmouth College Specimen imaging with x-ray and optical measurement
US10733325B1 (en) 2019-11-15 2020-08-04 Capital One Services, Llc Securing user-entered text in-transit
KR102306658B1 (ko) * 2019-12-24 2021-09-30 아주대학교산학협력단 이종 도메인 데이터 간의 변환을 수행하는 gan의 학습 방법 및 장치
US11508169B2 (en) * 2020-01-08 2022-11-22 Palo Alto Research Center Incorporated System and method for synthetic image generation with localized editing
CN117034212A (zh) * 2020-03-10 2023-11-10 百度在线网络技术(北京)有限公司 处理图像数据的方法、装置、电子设备和计算机存储介质
JP6885517B1 (ja) * 2020-03-17 2021-06-16 株式会社村田製作所 診断支援装置及びモデル生成装置
KR102447341B1 (ko) * 2020-04-10 2022-09-26 주식회사 뷰웍스 유방 촬영 장치 및 방법
US20230169627A1 (en) * 2020-04-10 2023-06-01 University Of Tsukuba Measurement signal processing device, measurement signal processing method, and program
CN111539883B (zh) * 2020-04-20 2023-04-14 福建帝视信息科技有限公司 基于强可逆对抗网络的数字病理图像h&e染色复原方法
EP4158539A1 (en) * 2020-06-02 2023-04-05 Memorial Sloan Kettering Cancer Center Machine learning model for analyzing pathology data from metastatic sites
KR102261475B1 (ko) * 2020-06-05 2021-06-07 주식회사 딥바이오 중증도 판단용 뉴럴 네트워크 학습 방법 및 시스템
KR102196874B1 (ko) * 2020-08-07 2020-12-31 주식회사 환경과학기술 위성 이미지 생성 학습 장치, 위성 이미지 생성 학습 방법, 위성 이미지 생성 장치 및 위성 이미지 생성 방법
CN112908451B (zh) * 2021-04-16 2023-12-26 千乘镜像(北京)科技有限公司 图像处理方法、装置和存储介质
CN113781366B (zh) * 2021-11-03 2023-06-23 四川大学 一种基于深度学习的眼部oct图像清晰化方法
US20230162364A1 (en) * 2021-11-19 2023-05-25 Verily Life Sciences Llc Segmentation generation for image-related functions
US20230301510A1 (en) * 2022-03-24 2023-09-28 Worcester Polytechnic Institute Robotic-assisted optical coherence tomography (oct)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011104016A (ja) 2009-11-13 2011-06-02 Olympus Corp 画像処理装置、電子機器、内視鏡システム及びプログラム
US20130317369A1 (en) 2012-03-19 2013-11-28 Genetic Innovations, Inc. Devices, systems, and methods for virtual staining
WO2016092394A1 (en) 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7545965B2 (en) * 2003-11-10 2009-06-09 The University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)
WO2009058915A1 (en) * 2007-10-29 2009-05-07 The Trustees Of The University Of Pennsylvania Computer assisted diagnosis (cad) of cancer using multi-functional, multi-modal in-vivo magnetic resonance spectroscopy (mrs) and imaging (mri)
US8488863B2 (en) * 2008-11-06 2013-07-16 Los Alamos National Security, Llc Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials
US9025850B2 (en) * 2010-06-25 2015-05-05 Cireca Theranostics, Llc Method for analyzing biological specimens by spectral imaging
PT2779089T (pt) 2010-07-30 2019-02-19 Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud Sistemas e métodos para segmentação e processamento de imagens de tecidos e extração de características dos mesmos para tratar, diagnosticar ou prever condições médicas
WO2012123718A1 (en) 2011-03-14 2012-09-20 The University Of Warwick Histology analysis
US8948522B2 (en) * 2011-08-04 2015-02-03 Seiko Epson Corporation Adaptive threshold for object detection
US9317781B2 (en) * 2013-03-14 2016-04-19 Microsoft Technology Licensing, Llc Multiple cluster instance learning for image classification
US9786050B2 (en) 2013-03-15 2017-10-10 The Board Of Trustees Of The University Of Illinois Stain-free histopathology by chemical imaging
US9668699B2 (en) * 2013-10-17 2017-06-06 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US20150269314A1 (en) * 2014-03-20 2015-09-24 Rudjer Boskovic Institute Method and apparatus for unsupervised segmentation of microscopic color image of unstained specimen and digital staining of segmented histological structures
US10283221B2 (en) * 2016-10-27 2019-05-07 International Business Machines Corporation Risk assessment based on patient similarity determined using image analysis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011104016A (ja) 2009-11-13 2011-06-02 Olympus Corp 画像処理装置、電子機器、内視鏡システム及びプログラム
US20130317369A1 (en) 2012-03-19 2013-11-28 Genetic Innovations, Inc. Devices, systems, and methods for virtual staining
WO2016092394A1 (en) 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning

Also Published As

Publication number Publication date
JP2020508536A (ja) 2020-03-19
US11984217B2 (en) 2024-05-14
KR102622542B1 (ko) 2024-01-10
CN110326024A (zh) 2019-10-11
KR20190112170A (ko) 2019-10-02
US20200035350A1 (en) 2020-01-30
CN110326024B (zh) 2023-11-03
EP3586306A1 (en) 2020-01-01
WO2018155898A1 (en) 2018-08-30
EP3586306A4 (en) 2020-12-30

Similar Documents

Publication Publication Date Title
JP7226895B2 (ja) 医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするための方法及び装置
JP4310099B2 (ja) 肺疾患検出のための方法及びシステム
US10249042B2 (en) Method and apparatus for providing medical information service on basis of disease model
US7599542B2 (en) System and method for detection and display of diseases and abnormalities using confidence imaging
CN107624192B (zh) 通过内窥镜组织分化的外科引导和术中病理的系统和方法
CN110458883A (zh) 一种医疗影像的处理系统、方法、装置和设备
CN114129240B (zh) 一种引导信息生成方法、系统、装置及电子设备
US20180082153A1 (en) Systems and methods for deconvolutional network based classification of cellular images and videos
CN109493325A (zh) 基于ct影像的肿瘤异质性分析系统
Sinha et al. Medical image processing
CN111954805A (zh) 用于光学组织学图像的分析和远程解译的系统和方法
US8705830B2 (en) Method and device for processing 3-D image data of a skull
CN107408198A (zh) 细胞图像和视频的分类
CN114332132A (zh) 图像分割方法、装置和计算机设备
JP2006346094A (ja) 検出情報の出力方法及び医用画像処理システム
CN116097086A (zh) 细胞诊断和分析方法
Elkhill et al. Geometric learning and statistical modeling for surgical outcomes evaluation in craniosynostosis using 3D photogrammetry
Li et al. Clinical study of diffusion-weighted imaging in the diagnosis of liver focal lesion
Eswaran et al. Applying Machine Learning for Medical Image Processing
Cao et al. Deep learning based lesion detection for mammograms
CN111862014A (zh) 一种基于左右侧脑室分割的alvi自动测量方法及装置
CN115132357B (zh) 基于医学影像图预测目标疾病指标状态的装置
Li et al. SOMA: Subject‐, object‐, and modality‐adapted precision atlas approach for automatic anatomy recognition and delineation in medical images
TWI778759B (zh) 醫療影像處理方法和設備、及其電腦儲存介質和電腦程式產品
CN116344001B (zh) 一种基于人工智能的医疗信息可视化管理系统及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R150 Certificate of patent or registration of utility model

Ref document number: 7226895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150