JP2022539063A - スキャナ内患者データ取得分析のための改良された医療スキャンプロトコル - Google Patents

スキャナ内患者データ取得分析のための改良された医療スキャンプロトコル Download PDF

Info

Publication number
JP2022539063A
JP2022539063A JP2021576813A JP2021576813A JP2022539063A JP 2022539063 A JP2022539063 A JP 2022539063A JP 2021576813 A JP2021576813 A JP 2021576813A JP 2021576813 A JP2021576813 A JP 2021576813A JP 2022539063 A JP2022539063 A JP 2022539063A
Authority
JP
Japan
Prior art keywords
image
medical
scan data
scan
image scan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021576813A
Other languages
English (en)
Inventor
ニールセン、マッズ
ラウリツェン、ロベルト・メグラヴ
パイ、アクシャイ・サダナンダ・ウッピナクドル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cerebriu AS
Original Assignee
Cerebriu AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cerebriu AS filed Critical Cerebriu AS
Publication of JP2022539063A publication Critical patent/JP2022539063A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Optics & Photonics (AREA)
  • Evolutionary Biology (AREA)
  • Pulmonology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Figure 2022539063000001
医療撮像システムを使用して対象の医療スキャンを実行する方法であって、a)医療スキャンセッションを開始することと、b)医療スキャンセッション中、医療撮像システムを使用して第1の画像取得シーケンスを実行して、第1の画像スキャンデータを取得することと、c)コンピュータシステムを使用して、前記第1の画像取得シーケンス中に取得された第1の画像スキャンデータに対して画像分析を実行して、病理及び/又は画像品質の1つ又は複数の定量的指標を識別することと、d)ステップc)における1つ又は複数の定量的指標の前記識別に基づいて、コンピュータシステムを使用して、前記医療スキャンセッション中に任意の追加の画像取得シーケンスが必要とされるか否かを決定することと、それが必要とされる場合、e)コンピュータシステムを使用して、1つ又は複数の定量的指標に基づいて第2の画像取得シーケンスを決定することと、f)医療スキャンセッション中、医療撮像システムを使用して第2の画像取得シーケンスを実行して、第2の画像スキャンデータを取得することとを含む方法が提供される。

Description

本発明は、スキャナ内患者データ取得分析の改良された方法及び装置に関する。より詳細には、本発明は、1つ又は複数の指標に応答してスキャン、選択及び取得を行う改良された方法及び装置に関する。少なくとも1つの指標は、病理を示すメトリック又は定量的パラメータを含み得る。
脳及び他の体の領域を撮像する非侵襲的技法は、コンピュータ断層撮像(CT)スキャンである。CTスキャンは、体の周囲の異なる角度から撮影された一連のX線画像を結合し、計算方法を使用して、骨、血管及び体内部の軟組織の断面画像(スライス)を作成する。
別の技法は、ポジトロン放出断層撮像(PET)である。PETは、体内部の詳細な三次元画像を生成するために使用することができる。PETスキャンは、放射性トレーサを利用する。放射性トレーサは、PETスキャンで検出することができる小量の放射性物質を含む分子である。放射性トレーサは、癌性腫瘍又は炎症領域に蓄積するように設計される。放射性トレーサは、体内の特定のタンパク質に結合するように作ることもできる。
一層好ましい技法は、構造的磁気共鳴撮像(MRI)である。MRIは、体の物理的構造(例えば、組織容量の計算)を調べる非侵襲的な技法である。これは、組織ダメージ、特に神経変性疾患のモニタリングのために高い価値を有する。
周知のように、MRIは、原子核の磁化性に基づく。大きく均一な外部磁場が検査中の組織の水の核内のタンパク質を配向させる。配向は、次いで、外部無線周波数(RF)信号によって摂動する。
核は、RF信号が発される多くの異なる緩和過程を通して静止配向に戻る。RFパルスの放射及び検出シーケンスを変えることにより、検査中の組織の異なる特性を測定することができる。繰り返し時間(TR)は、同じスライスに適用される連続パルスシーケンス間の時間量である。エコー時間(TE)は、RFパルスの送達とエコー信号の受信との間の時間である。
多くのMRI技法が利用可能である。T1加重及びT2加重スキャンが一般的である。T1(縦緩和時間)は、励起したプロトンが、印加された外部磁場と再配向するレートを決める時間定数である。T2(横緩和時間)は、励起したプロトンが、印加される外部磁場に直交するスピンを有する核との位相コヒーレンスを失うレートを決める時間定数である。T1加重画像は、短いTE及びTR時間を特徴とする。逆に、T2加重画像は、より長いTE及びTR時間を使用することによって作り出される。
一層使用されているシーケンスは、流体減衰反転回復法(FLAIR)である。FLAIRは、T2加重画像と同様であるが、TE及びTR時間が非常に長い。この手法を使用すると、異常は、明るいままであるが、脳脊髄液は、減衰し、したがって取得画像で暗い。そのようなシステムは、T2 FLAIRスキャンとも呼ばれる。
拡散強調撮像(DWI)は、測定される組織のボクセル(ボリュームピクセル)内の水分子のランダムブラウン運動を測定することに基づくMRIの一形態である。一般に、細胞密度の高い組織又は細胞膨張を有する組織ほど、低い拡散係数を示す。拡散は、腫瘍特徴付け及び脳虚血で特に有用である。
コントラスト増強MRI(CE-MRI)及び動的コントラスト増強MRI(DEC-MRI)も利用可能な技法である。CE-MRIでは、利用可能な撮像の明瞭さを改善するためにガドリニウム造影剤が使用される。CE-MRIは、例えば、炎症、血管及び腫瘍の視認性を改善することができる。DCE-MRIでは、複数のMR画像が造影剤の投与に続けて順次取得される。これにより、造影剤のコントラスト(「ウォッシュイン」及び「ウォッシュアウト」)をモニタすることができ、例えば脈管病変及び腫瘍の検出を改善できるようにする。
更なる技法は、グラジエントエコー(GRE)MRIスキャンである。これは、勾配反転と組み合わせて単一のRFパルスによって作り出される。RFパルスに続き、勾配のローブの最初の負の部分が歳差スピンの相分散を生じさせる。この勾配が反転すると、スピンがリフォーカスし、グラジエント(リコール)エコーを形成する。GREスキャンは、典型的には、短いTR値及び短いTE値を含み、したがって高速信号取得を提供する。したがって、GREシーケンスは、高速撮像及びMR血管造影技法を提供することができる。
磁化率強調撮像法(SWI)は、常磁性、反磁性及び強磁性特性を有する化合物を利用する3D高空間分解能速度補正グラジエントエコーMRIシーケンスである。そのような常磁性化合物は、デオキシヘモグロビン、フェリチン及びヘモシデリンを含む。反磁性化合物は、骨塩及び異栄養性石灰化を含む。
GREの変形形態は、磁化率強調血管造影法(SWAN)である。SWANは、造影剤を投与することなく、他の構成よりもはるかに短いスキャン時間で1シーケンスにおける大脳静脈及び動脈の両方の高分解能視覚化を可能にする。
ターボスピンエコー(TSE)(高速スピンエコー - FSEとしても知られている)は、撮像時間を短縮するように設計された通常のスピンエコー(SE)取得技法の適合形態である。標準のSEシーケンスでは、各繰り返し時間(TR)中に単一のエコーが測定される。TSEでは、各TR後、複数のエコーが記録される。これは、異なる位相符号化勾配に従って一連の180度反転パルスを所定の間隔で送信し、対応するエコー信号を記録することによって達成される。このようにして、単一の90度パルス後、複数の位相符号化ステップを符号化することができる。
上記は、非網羅的な列記であり、他の技法を考えることもできる。
スキャンは、上記のテストの1つ又は複数を含み得る。多くの場合、技法は、組み合わされて、コジレストレーション又は画像融合として知られるプロセスにおいて強化された医療データを提供する。実際に、複数の診断法を単一スキャンで実行することが可能なスキャナ、例えば複数の撮像検査を同時に実行することが可能な単一光子放出型コンピュータ断層/コンピュータ断層撮像(SPECT/CT)及びポジトロン放出断層/コンピュータ断層撮像(PET/CT)ユニットが利用可能である。
使用される技法に関係なく、既存のスキャン構成に伴う幾つかの問題がある。患者スキャンは、サービス提供者にとって高価であり、患者にとって潜在的に不便であり且つストレスが多い。したがって、患者がスキャンされる必要がある回数を最小に抑えることが望ましい。
しかしながら、多くの場合、患者スキャンデータが取得され、後に分析される場合、スキャンデータは、取得が不正確若しくは不十分であることに起因して、又は医療診断目的には不良すぎる画像品質になる品質制御欠陥に起因して、診断プロセスで使用できないことが分かる。そのような事態では、更なるスキャンのために患者を後に呼び戻す必要がある。これは、明らかに望ましくなく、患者を追加の不必要なリスクに曝すことに繋がり得る(例えば、PETを使用する場合又は造影剤が利用される場合)。
したがって、更なる画像を取得できるように更なるスキャンのために患者を呼び戻す可能性を低減する改良されたプロセスの必要性が当技術分野に存在する。スキャンデータを取得する既存の方法は、あまりにも遅く、1回のスキャンセッション中、必要な全てデータを取得できるようにし、且つ不必要なスキャンステップが行われるのを防ぐことへの適応が不十分であるという技術的問題が存在する。
本発明は、実施形態において上記の問題に対処する。以下に説明され、特許請求の範囲に記載される本発明は、限定ではなく、上述した全ての技法と併用され得る。
本発明の第1の態様によれば、医療撮像システムを使用して対象の医療スキャンを実行する方法であって、a)医療スキャンセッションを開始することと、b)医療スキャンセッション中、医療撮像システムを使用して第1の画像取得シーケンスを実行して、第1の画像スキャンデータを取得することと、c)コンピュータシステムを使用して、前記第1の画像取得シーケンス中に取得された第1の画像スキャンデータに対して画像分析を実行して、病理及び/又は画像品質の1つ又は複数の定量的指標を識別することと、d)ステップc)における1つ又は複数の定量的指標の前記識別に基づいて、コンピュータシステムを使用して、前記医療スキャンセッション中に任意の追加の画像取得シーケンスが必要とされるか否かを決定することと、それが必要とされる場合、e)コンピュータシステムを使用して、1つ又は複数の定量的指標に基づいて第2の画像取得シーケンスを決定することと、f)医療スキャンセッション中、医療撮像システムを使用して第2の画像取得シーケンスを実行して、第2の画像スキャンデータを取得することとを含む方法が提供される。
一実施形態では、第1の画像スキャンデータ及び/又は第2の画像スキャンデータは、二次元画像スキャンデータを含む。一実施形態では、第1の画像スキャンデータ及び/又は第2の画像スキャンデータは、三次元画像スキャンデータを含む。
一実施形態では、第1の画像スキャンデータ及び/又は第2の画像スキャンデータは、対象の選択された体の部位の1つ又は複数の画像を含む。一実施形態では、第1の画像スキャンデータ及び/又は第2の画像スキャンデータは、対象の選択された体の部位の1つ又は複数の2D画像及び/又は3D画像を含む。
一実施形態では、前記定量的指標は、非関連画像スキャンデータを利用する事前のトレーニングプロセスから導出される。
一実施形態では、ステップc)は、分類器を使用して実行され、及び前記1つ又は複数の定量的指標は、ボクセル分類を含む。一実施形態では、ステップc)は、g)前記第1の画像スキャンデータからボクセル分類マップを生成することを更に含む。一実施形態では、ステップg)は、h)ボクセル分類マップを第1の画像スキャンデータの全体分類に集約することを更に含む。
一実施形態では、本方法は、i)所定のボクセル分類に属するボクセル分類マップにおける任意のブロブを識別するステップと、j)前記識別されたブロブを所定の閾値と比較するステップと、k)前記所定の閾値を超える場合、潜在的な病理の陽性指示を識別するステップとを更に含む。
一実施形態では、ステップi)は、l)前記ブロブを識別するために、異方性ガウスブロブ検出、等方性ガウスブロブ検出及び/又はリッジ検出の1つ又は複数の実行することを含む。
一実施形態では、コンピュータシステムは、ニューラルネットワークアルゴリズムを含む。一実施形態では、ニューラルネットワークアルゴリズムは、畳み込みニューラルネットワークアルゴリズムを含む。一実施形態では、ニューラルネットワークアルゴリズムは、U-netを含む。一実施形態では、畳み込みニューラルネットワークは、符号化部及び復号化部を含む。一実施形態では、符号化部は、収束経路を含み、及び復号化部は、拡散経路を含む。一実施形態では、符号化部は、複数の畳み込みを含み、各々の後に正規化線形ユニット及びプーリング演算が続く。
一実施形態では、本方法は、ステップa)前に、l)医療スキャンタプルの組を含むトレーニングセットを使用して、前記定量的指標を識別するようにニューラルネットワークアルゴリズムをトレーニングすることを更に含む。一実施形態では、ステップl)は、関連するグラウンドトゥルースアノテーションを利用することを含む。一実施形態では、ステップc)は、病理及び/又は画像品質の前記定量的指標をブラインド予測するように動作可能である。
一実施形態では、ステップc)は、前記特定の対象の事前画像スキャンデータを必要としない。一実施形態では、第1の画像取得シーケンスは、複数の異なるスキャンタイプを含む。
一実施形態では、医療撮像システムは、MRIスキャナを含み、及び複数のスキャンタイプは、T2 FLAIR、DWI、3D SWI、T2グラジエントエコー及びT1 TSEの群から選択される。
一実施形態では、ステップb)は、第1のタイプの第1の画像スキャンを実行し、その後、第2のタイプの第2の画像スキャンを実行することを含む。一実施形態では、ステップc)は、第2の画像スキャンが行われている間、前記第1の画像スキャンからの画像スキャンデータに対して実行される。
一実施形態では、定量的指標は、以下の潜在的な病理:腫瘍(全般)、グリオーマ、肉芽腫、膿瘍、出血、微小出血、梗塞、虚血性変化、脱髄、新生物、神経変性疾患及び水頭症の1つ又は複数の指示を提供する。
一実施形態では、ステップd)は、m)ステップc)における病理の前記定量的指標の1つ又は複数の前記識別に基づいて、コンピュータシステムを使用して、通知が生成されるべきか否かを決定することを更に含み、及び生成されるべきであると決定される場合、本方法は、n)スキャンセッション中、識別された定量的指標に対応する通知を生成することを更に含む。
一実施形態では、ステップd)は、m)ステップc)における病理の前記定量的指標の1つ又は複数の前記識別に基づいて、コンピュータシステムを使用して、通知が生成されるべきか否かを決定することを更に含み、生成されるべきと決定される場合、本方法は、n)医療スキャンセッション中、前記識別された定量的指標に関連する可能性の高い病理に関する通知を生成することを更に含む。
一実施形態では、通知は、医療スキャンセッション中、医療撮像システムのオペレータ及び/又は医療専門者に提供される。一実施形態では、通知は、対象の緊急治療が必要である可能性が高いことを示す。
一実施形態では、ステップc)において識別される1つ又は複数の定量的指標は、出血、微小出血又は梗塞及び緊急治療が脳卒中に関するものであることの1つ又は複数の指示を提供する。一実施形態では、通知は、血栓溶解治療、抗凝血投薬又は抗凝血投薬を回避する治療が必要である可能性が高いことを示す。
一実施形態では、ステップm)は、o)前記1つ又は複数の識別された定量的指標の1つ又は複数の値を、正常で健康な対象に関連する前記1つ又は複数の識別された定量的指標の値及び/又は既知の病理に関連する値と相関付けることを含む。
本発明の第2の態様によれば、医療撮像システムを使用して対象の医療スキャンを実行する方法であって、a)医療スキャンセッションを開始することと、b)医療スキャンセッション中、医療撮像システムを使用して画像取得シーケンスを実行して、画像スキャンデータを取得することと、c)コンピュータシステムを使用して、前記画像取得シーケンス中に取得された画像スキャンデータに対して画像分析を実行して、病理の1つ又は複数の定量的指標を識別することと、d)ステップc)における病理の前記定量的指標の1つ又は複数の前記識別に基づいて、コンピュータシステムを使用して、通知が生成されるべきか否かを決定することとを含み、及び生成されるべきであると決定される場合、e)医療スキャンセッション中、前記識別された定量的指標に関連する可能性が高い病理に関する通知を生成することを更に含む方法が提供される。
一実施形態では、通知は、医療スキャンセッション中、医療撮像システムのオペレータ及び/又は医療専門者に提供される。一実施形態では、通知は、対象の緊急治療が必要である可能性が高いことを示す。
一実施形態では、ステップc)において識別される1つ又は複数の定量的指標は、出血、微小出血又は梗塞及び緊急治療が脳卒中に関するものであることの1つ又は複数の指示を提供する。一実施形態では、通知は、血栓溶解治療、抗凝血投薬又は抗凝血投薬を回避する治療が必要である可能性が高いことを示す。
一実施形態では、ステップc)は、f)コンピュータシステムを使用して、前記画像取得シーケンス中に取得された画像スキャンデータに対して画像分析を実行して、画像品質の1つ又は複数の定量的指標を識別することを更に含む。
一実施形態では、ステップd)は、g)ステップc)における1つ又は複数の定量的指標の前記識別に基づいて、コンピュータシステムを使用して、前記医療スキャンセッション中に任意の追加の画像取得シーケンスが必要とされるか否かを決定することと、それが必要とされる場合、h)コンピュータシステムを使用して、1つ又は複数の定量的指標に基づいて第2の画像取得シーケンスを決定することと、i)医療スキャンセッション中、医療撮像システムを使用して第2の画像取得シーケンスを実行して、第2の画像スキャンデータを取得することとを更に含む。
一実施形態では、第1の画像スキャンデータ及び/又は第2の画像スキャンデータは、二次元画像スキャンデータを含む。一実施形態では、第1の画像スキャンデータ及び/又は第2の画像スキャンデータは、三次元画像スキャンデータを含む。一実施形態では、ステップc)は、分類器を使用して実行され、及び前記1つ又は複数の定量的指標は、ボクセル分類を含む。一実施形態では、ステップc)は、j)前記画像スキャンデータからボクセル分類マップを生成することを更に含む。
一実施形態では、ステップg)は、k)ボクセル分類マップを画像スキャンデータの全体分類に集約することを更に含む。
一実施形態では、本方法は、l)所定のボクセル分類に属するボクセル分類マップにおける任意のブロブを識別するステップと、m)前記識別されたブロブを所定の閾値と比較するステップと、n)前記所定の閾値を超える場合、潜在的な病理の陽性指示を識別するステップとを更に含む。
一実施形態では、コンピュータシステムは、ニューラルネットワークアルゴリズムを含む。一実施形態では、ニューラルネットワークアルゴリズムは、畳み込みニューラルネットワークアルゴリズムを含む。一実施形態では、ニューラルネットワークアルゴリズムは、U-netを含む。
一実施形態では、本方法は、ステップa)前に、o)医療スキャンタプルの組を含むトレーニングセットを使用して、前記定量的指標を識別するようにニューラルネットワークアルゴリズムをトレーニングすることを更に含む。一実施形態では、ステップo)は、関連するグラウンドトゥルースアノテーションを利用することを含む。一実施形態では、ステップc)は、病理及び/又は画像品質の前記定量的指標をブラインド予測するように動作可能である。
一実施形態では、ステップc)は、前記特定の対象の事前画像スキャンデータを必要としない。一実施形態では、画像取得シーケンスは、複数の異なるスキャンタイプを含む。
一実施形態では、医療撮像システムは、MRIスキャナを含み、及び複数のスキャンタイプは、T2 FLAIR、DWI、3D SWI、T2グラジエントエコー及びT1 TSEの群から選択される。
一実施形態では、ステップb)は、第1のタイプの画像スキャンを実行し、その後、第2のタイプの第2の画像スキャンを実行することを含む。一実施形態では、ステップc)は、第2の画像スキャンが行われている間、前記画像スキャンからの画像スキャンデータに対して実行される。
一実施形態では、医療撮像システムは、MRIスキャナを含み、及び前記画像スキャンデータは、磁気共鳴撮像(MRI)によって作り出される。一実施形態では、医療撮像システムは、MRIスキャナを含み、及び前記画像スキャンデータは、T1加重及びT2加重MRIスキャン、FLAIRスキャン、拡散強調撮像(DWI)、コントラスト増強MRI(CE-MRI)、動的コントラスト増強MRI(DEC-MRI)、グラジエントエコー(GRE)、磁化率強調撮像(SWI)並びにターボスピンエコー(TSE)の群から選択される1つ又は複数の技法を使用して磁気共鳴撮像(MRI)によって作り出される。
一実施形態では、医療撮像システムは、CTスキャナを含み、及び前記画像スキャンデータは、コンピュータ断層撮像(CT)データを含む。一実施形態では、医療撮像システムは、PETスキャナを含み、及び前記画像スキャンデータは、PETデータを含む。
一実施形態では、第1の態様のステップa)~f)及び第2の態様のステップa)~e)は、全て対象が医療撮像システム内に残っている間に実行される。一実施形態では、(第1の)画像スキャンデータ及び/又は第2の画像スキャンデータは、対象の体の一部の撮像に関する。一実施形態では、(第1の)画像スキャンデータ及び/又は第2の画像スキャンデータは、対象の脳の撮像に関する。
一実施形態では、ステップc)及び/又はステップf)は、第1の画像スキャンデータのスカルストリッピングを実行して、脳組織及び脳脊髄液のボクセルマップを取得することを更に含む。一実施形態では、前記スカルストリッピングは、ニューラルネットワークアルゴリズムによって実行される。一実施形態では、前記ニューラルネットワークアルゴリズムは、画像スキャンタプルの組を含むトレーニングセットを使用して、前記第1の画像スキャンデータ及び/又は第2の画像スキャンデータの頭蓋骨部分を識別及び除去するようにトレーニングされる。
本発明の第3の態様によれば、第1の態様又は第2の態様の方法を実行するように構成された処理デバイスを含むコンピュータシステムが提供される。
本発明の第4の態様によれば、実行されると、第1の態様及び第2の態様の方法を実行するように構成された命令を含むコンピュータ可読媒体が提供される。
本発明の第5の態様によれば、処理デバイスと、記憶デバイスと、第3の態様のコンピュータ可読媒体とを含むコンピュータシステムが提供される。
ここで、本発明の実施形態について、添付図面を参照して詳細に説明する。
本発明の部分を形成する一例の計算システムを示す。 スキャンシーケンスワークフロープロセスに関連して図1の計算システムを示す。 U-netニューラルネットワークの概略構成を示す。 本発明の方法のフローチャートを示す。 レベル1スキャン取得プロセスの概略ワークフローを示す。 レベル2及び続くスキャン取得を含むスキャン取得プロセスの概略図を示す。
本発明は、実施形態では、自動ラベリング及び磁気共鳴(MR)画像の組からの候補発見の視覚化を意図した新規の非侵襲的な医療撮像処理用途に関する。出力は、定量的指標を用いた候補病理の視覚化のラベリングからなる。
ユーザは、候補発見の検証に提供されたツールを使用する必要がある。本発明は、MR画像の評価及び査定に相補的な情報を熟練した医療専門者に提供し、診断に適切な追加のMRシーケンスを決定し、優先度付きワークフローを決定するにあたり、熟練した医療専門者を補助することを意図する。本発明は、ルーティングされた医療におけるデジタル撮像及び通信(DICOM)画像に対して作業する事後処理ワークステーション又はクラウド解決策を提供する。
本発明の一実施形態によるスマートプロトコルは、スキャン中に取得されたデータを分類し、いずれの更なるスキャンが推奨されるか否かに関する指示を医療専門者に提供するように動作可能である。換言すれば、スマートプロトコルは、医療スキャンの所与の入力タプルについて、推奨される次の行動(例えば、新しいスキャン)を出力する構成可能なアイテムである。構成は、状況固有である。
本発明の一意の特徴は、方法が患者の過去の又は前のスキャンデータの事前知識を必要としないことである。したがって、本発明は、初めてスキャンされている患者又は前のスキャンと異なる内科的合併症について調査され得る患者と併用することができる。
スマートプロトコルは、決定木として実現される。この木の各ノードにおける決定は、アルゴリズムによって自動的に行われる。
方法は、スキャンデータ中の関心のあるパラメータを識別する機械学習アルゴリズムを含む。パラメータは、トレーニングプロセスによって識別される。トレーニングプロセスは、1つ又は複数の病理又は画像品質を示す1つ又は複数の定量的指標又はパラメータによって画像内の特定の特徴を分類できるようにする。そうしてトレーニングされた計算プロセスは、医療スキャンセッション中、特定の病理及び/若しくは画像品質を示す定量的指標若しくはパラメータを識別し、必要とされ得る任意の追加のスキャンシーケンスを推奨し、且つ/又は特定の実施形態では医療専門者による即時診断及び/若しくは治療を必要とし得る可能性が高い病理の指示を提供する定量的指標を提供することができる。
これは、スキャンセッションが完了した後、医療専門者によって実行されるスキャンデータの分析を必要とする既知の構成からの有意な改良である。
図1は、本発明の部分を形成する一例の計算システム100を示す。図2は、スキャンシーケンスワークフロープロセスに関連して図1の計算システム100を示す。
本発明は、医療撮像システム10に関する。医療撮像システム10は、コンピュータシステム100を含む。計算システム100は、任意の適した形態をとり得、例えばリモートコンピュータ、クラウドベースの計算システム、ローカルワークステーション又は医療撮像システムコンソールを含み得る。
計算システム100は、1つ又は複数のプロセッサ102と、コンピュータ可読物理メモリ104と、ハードディスクドライブ又は固体状態ドライブ等の非一時的記憶デバイス106とを含む。記憶デバイス106は、任意の適した形態をとり得、計算システム100にローカルな記憶デバイス及び/又は計算システム100の外部の記憶措置を含み得る。インターフェース108が提供されて、計算システム100が医療撮像システム10内の他の構成要素と通信できるようにする。計算アプリケーション110が計算システムで実行され、計算システム100に本発明の方法を実行させるように動作可能である。
計算アプリケーションは、後述するように、分類器112及び分類器データベース114を含む。画像プロセッサ116は、後述するように、分類器112と対話するように更に動作可能である。
計算アプリケーション110は、インターフェース108を通して医療撮像デバイス118と通信するように動作可能である。医療撮像デバイス118は、この実施形態では、MRIスキャナの形態をとる。しかしながら、これは、限定を意図せず、他のスキャナタイプ、例えばCT若しくはPET又はそれらの組合せを使用することも可能である。
インターフェース108及びスキャナ116は、画像保管通信システム(PACS)の形態の記憶デバイス120とデータ通信する。PACS120は、医療撮像の業界標準デバイス及びフォーマットである。しかしながら、これは、限定ではなく、他の構成を使用することもできる。PACS120は、医療におけるデジタル撮像及び通信(DICOM)フォーマットでの画像及び他のデータを扱うように動作可能である。しかしながら、他のプロプライエタリ又は非プロプライエタリフォーマットを使用することもできる。
読み出しステーション122は、PACS120と通信し、画像データを読み出し、解釈し、分析するために医療実施者によって使用され得る。
計算システム100は、この実施形態では、全般的に124で示される放射線技師情報システム又は病院情報システム(HIS)を通して通信することに留意されたい。しかしながら、これは、本発明にとって重要ではなく、適宜他のシステムを使用することができる。
ここで、本発明の動作方法について図3~図6を参照して説明する。
全体的に、本発明は、医療スキャンの所与の入力タプルについて、推奨される次の行動(例えば、新しいスキャンが実行される)を出力する制御及び分析方法を含む。構成は、状況固有であり、クリニックによりスマートプロトコルを使用するために提供される。スマートプロトコルは、決定木として実現される。この木の各ノードにおける決定は、アルゴリズムによって自動的に行われる。
ステップ200:アルゴリズムの提供
分類器114は、機械学習アルゴリズムを含む。機械学習アルゴリズムは、一実施形態では、引用文献[1a]に記載の医療画像セグメンテーションのU-Net深層学習アルゴリズムからの集約ボクセルワイズ分類を利用する。しかしながら、これは、限定を意図せず、他のボクセルレベル分類器を代わりに使用することもできる。
深層ニューラルネットワークの構築ブロックは、人工ニューロン又はノードである。各入力は、関連付けられた重みを有する。全ての加重入力の和は、次いで、ニューロンの事前活性化レベルを出力に変換する非線形活性化関数fを通して渡される。出力は、次いで、次の層内のノードへの入力として機能する。
幾つかの活性化関数が利用可能である。それらは、事前活性化レベルを出力値にマッピングする方法に関して異なる。使用される最も一般的な活性化関数は、正規化関数(正規化関数を使用するニューロンは、正規化線形ユニット(ReLU)と呼ばれる)、双曲正弦関数、シグモイド関数及びソフトマックス関数である。
ソフトマックス関数は、マルチクラスラベルの確率を計算することができるため、一般に出力層で使用される。第1の隠れ層内の各モードjについて、非線形関数が入力の加重和に適用される。この変換の結果は、第2の隠れ層の入力として機能する。情報は、ネットワークを通して出力層まで伝搬する。出力層において、ソフトマックス関数は、各クラスに属する所与の観察の確率をもたらす。
典型的には、畳み込みネットワークは、分類タスクに利用される。その場合、画像への出力は、単一のクラスラベルである。しかしながら、多くのビジュアルタスク、特に生物医学的画像処理では、所望の出力は、ローカリゼーション、すなわち各ボクセルに割り当てられたクラスラベルを含むべきである。
例示的な一実施形態では、U-netアルゴリズムのネットワークアーキテクチャを図3に示す。これは、引用文献[1a]からとられている。アルゴリズムは、畳み込みニューラルネットワーク(CNN)に対応し、符号化部及び復号化部を含む。
符号化側は、収束経路(左側に示される)を含み、及び復号化部は、拡散経路(右側に示される)を含む。
収束経路は、畳み込みネットワークの典型的なアーキテクチャに従い、2つの3×3畳み込みの反復適用からなり、それぞれの後に、正規化線形ユニット(ReLU)演算及びダウンサンプリングではストライド2を用いる2×2最大プーリング演算が続く。
各ダウンサンプリングステップにおいて、特徴チャネルの数は、2倍になる。拡散経路におけるあらゆるステップは、特徴マップのアップサンプリング、その後に続く特徴チャネル数を半減する2×2畳み込み(「逆畳み込み」)、収束経路からの対応してクロッピングされた特徴マップとの連結及び2つの3×3畳み込みからなり、各々の後にReLUが続く。
実施形態では、U-netアルゴリズムを使用するCNNが分類器114として利用される場合、これは、異なる形態を含み得る。例えば、従来の3D U-netは、上述した例からの異なるパラメータと併用し得る。任意の適したカーネルサイズ及びストライドサイズを有する任意の適した数及びサイズの畳み込みを利用し得る。例えば、ストライド1を使用し得る。
ReLUは、非限定的な例では、ソフトプラス近似、ノイジーReLU(ガウスノイズを含む)、漏洩ReLU(ReLUがアクティブでないとき、小さい正の勾配を可能にする)、パラメトリックReLU(漏洩ReLU内の漏れ係数がネットワークの学習されるパラメータである)及び/又は指数線形ユニット(ELU)を含み得る。
最後に、プーリング層は、任意の適したフィルタ及びストライドサイズを有する最大プーリングを利用し得る。
従来のU-netアルゴリズムへの代替を使用し得る。例えば、変分エンコーダ(VAE)を更に利用し得る。VAEの例は、引用文献[1b]に記載されている。
更なる代替として、カスケードU-net VAEを使用し得る。カスケードU-net VAEでは、第1のU-netの出力が入力画像に連結され、第2のU-netに供給されるように、2組のU-net VAEモデルが相互リンクされる。例は、引用文献[1c]に見出すことができる。
ステップ202:アルゴリズムのトレーニング
深層機械学習ニューラルネット解決策に関連して、分類は、2つの主なステップを含む。第1のステップであるトレーニングフェーズにおいて、トレーニングセットとして知られる利用可能なデータのサブセットを使用して、所望のタスク(分類)を実行するようにネットワークのパラメータを最適化する。モデルは、いかなる事前トレーニングもなく、ゼロからトレーニングされ得る。
第2のステップであるいわゆるテストフェーズでは、テストセットとして知られる残りのサブセットを使用して、トレーニングされたモデルが新しい観測のクラスをブラインド予測することができるか否かを査定する。利用可能なデータ量が限られているとき、トレーニングフェーズ及びテストフェーズを元データの異なるトレーニング及びテスト分割で数回実行し、次いでモデルの平均性能を推定することも可能である - 交差検証として知られる手法。
本発明のアルゴリズムは、関連付けられたグラウンドトゥルースアノテーションを有する医療スキャンタプルの組を含むトレーニングセットを使用してトレーニングされて、医療スキャン内の各ボクセルを幾つかの候補クラスの1つに分類する。これらは、任意の適した画像取得技法又は方法からであり得る。
関連付けられたグラウンドトゥルースアノテーションを有する医療スキャンタプルの組を含むトレーニングセットを形成する複数の入力画像は、医療スキャン内の各ボクセルを幾つかの候補クラスの1つに分類するために利用される。
データは、事前処理され得る。例えば、入力画像をリサンプリングして、等方性ボクセルサイズを達成し得る。梗塞セグメンテーション等の問題に対処するために、画像がまず等方性であるように拡散シーケンスをリサンプリングし得、次いで流体減衰反転回復法(FLAIR)及び/又は磁化率強調撮像法(SWI)シーケンスをリサンプリング拡散空間にリフォーマットし得る。次いで、見かけ拡散係数を計算することができる。
同様に、出血セグメンテーションの問題では、SWI空間を使用し得る。リサンプリング後、画像は、z正則化され、トレーニング及び参照のためにニューラルネットワークに供給され得る。データは、リサンプリング後、例えばOtsuメジアンフィルタリングを使用して非ゼロ値の領域にクロッピングされ得る。
上記の例は、例示及び非限定を意図する。当業者であれば、本発明と併用することができる他の入力画像及び/又は事前処理法を容易に認識する。
加えて、U-Netトレーニングは、データ増強を使用して人工拡張によって改良される。そのようなデータ増強は、利用可能な入力画像が限られている場合、ネットワークを十分にトレーニングできるようにするために望ましいことがある。
幾つかの変換を使用して、トレーニング画像のデータセットを増強し得る。例えば、入力画像は、ランダム速度フィールドに基づく変換を用いて拡張され得る[2]。追加又は代替として、変換のランダム選択(増強又は変換を含まないことがある)を各トレーニングステップに使用し得る。
そうして変換された入力画像は、不一致及びアーチファクトを説明する所定のファクタを有する費用関数を用いて加重し得る。一実施形態では、所定のファクタは、0.75であり、且つアーチファクトである。
代替の変換を使用し得る。代替の変換は、回転、弾性変換、ガウスノイズ、ガウスブラー、コントラスト、ガンマ補正及びミラーリングの1つ又は複数を含み得る。VAE分岐のみを用いるモデルの場合、画像再構築規則に起因して、強度変換のみを使用し得る。
最後に、画像の事後処理を利用して、画像分類性能を改善し得る。実施形態では、形態学的フィルタリングを使用して、画像中のランダム予測を除去し得る。
アーキテクチャ選択では、特定のサイズよりも小さいブロブは、除去され得る。実施形態では、5mmよりも小さいブロブは、除去され得る。他のサイズを使用し得る。例えば、分類性能は、125mmよりも小さいブロブを除去することによって最適化され得る。
分類器112は、分類器データベース114内の画像のトレーニングセットを使用してトレーニングされる。一般に、分類器112は、一例(独立変数値の集合)では特定の特徴の値(回帰では独立変数又は予測子)をとることによって機能し、その例が属するクラス(従属変数)を予測する。
本医療撮像に関連して、特徴は、ボクセル(ボリュームピクセル)を含む。クラスは、特定の可能性の高い病理を示し得る。分類器112は、データベース114内のトレーニングデータから幾つかのパラメータを学習する必要がある。分類器は、基本的に、トレーニングセット内の特徴とクラスラベルとの間の関係のモデルである。より正式には、一例xを所与として、分類器は、
Figure 2022539063000002
を予測する関数fである。
典型的には、ニューラルネットワークは、勾配降下ベースのアルゴリズムを通して学習することができる。勾配降下アルゴリズムは、推定された出力と真の出力との間の誤差(差分)を最良に最小化するネットワーク重みの値を見つけることを目的とする。
これらの方法が実際の分類器自体ではなく、代わりにデータ中の有用パターンを学習するように事前トレーニングされ、次いで最後の層で実際の分類器に供給されるネットワークであることに留意されたい。
例示的な一実施形態では、入力画像のトレーニングセット及び対応するセグメンテーションマップを使用して、確率的勾配降下法を用いてアルゴリズムネットワークをトレーニングする。以下は、引用文献[1a]によるこの一般例である。
エネルギー関数は、交差エントロピー損失関数と組み合わせて最終特徴マップにわたりピクセルワイズソフトマックスによって計算される。ソフトマックスは、式1):
Figure 2022539063000003
に記載のように定義され、式中、a(x)は、ピクセル位置x∈Ωにおける特徴チャネルkにおける活性化を示し、
Figure 2022539063000004
である。kは、クラス数であり、p(x)は、近似された最大関数であり、すなわち最大活性化a(x)を有するkの値ではp(x)≒1であり、他の全てのkではp(x)≒0である。次いで、交差エントロピーは、各位置において、以下の式2):
Figure 2022539063000005
のように、1からの
Figure 2022539063000006
のずれに対してペナルティを課し、式中、l:Ω→{1,…,K}は、各ピクセルの真のラベルであり、
Figure 2022539063000007
は、トレーニングでのより大きい重要性を幾つかのピクセルに与えるために導入される重みマップである。
重みマップは、トレーニングデータセット中の特定のクラスからのピクセルの異なる頻度を補償し、隣接するテストセル間に導入される小さい分離境界線をネットワークに学習するように強いるために、各グラウンドトゥルースセグメンテーションについて予め計算される。
次いで、重みマップは、式3)
Figure 2022539063000008
のように計算され、式中、
Figure 2022539063000009
は、クラス頻度を平衡させる重みマップであり、
Figure 2022539063000010
は、最近傍セルの境界線への距離を示し、
Figure 2022539063000011
は、2番目に最も近いセルの境界線への距離を示す。
多くの畳み込み層及びネットワークを通る異なる経路を有する深層ネットワークでは、重みを正しく初期化することが重要であり、重みを正しく初期化しなければ、ネットワークの部分は、過度の活性化を付与し得る一方、他の部分は、決して寄与しない。理想的には、初期重みは、ネットワーク中の各特徴マップが概ね単位分散を有するように適合されるべきである。
畳み込み層及びReLU層が交互になったネットワークでは、これは、標準偏差
Figure 2022539063000012
を有するガウス分布から初期重みを取り出すことによって達成することができ、式中、Nは、1つのニューロンの入力ノードの数を示す。例えば、前層で3×3畳み込み及び64特徴チャネルの場合、N=9・64=576である。
しかしながら、代替の手法を使用することも可能である。一実施形態では、U-net又は同様のニューラルネットワークは、損失関数としてダイスを使用してトレーニングされる。一例では、1e-6のカーネル重み規則化を全層に使用し得る。
引用文献[1d]と機能的に同様のダイス損失関数を使用し得、これは、式4):
Figure 2022539063000013
に記載のように公式化され、式中、uは、予測されたセグメンテーションであり、vは、グラウンドトゥルースであり、Kは、クラス数である。
予測されたセグメンテーション及びグラウンドトゥルースは、両方ともワンホット符号化される。シグモイドが活性化関数として使用される。一実施形態では、適応モーメント推定又はAdam等の適応学習率手法の使用を通して最適化を達成し得る。Adamプロセスは、勾配の最初及び2番目のモーメントの推定を利用して、ニューラルネットワークの各重みに向けて学習率を適応させる。
一実施形態では、Adam方法論は、オプティマイザとして学習率1e-1を用いて利用される。実施形態では、モデルは、100エポックでトレーニングされ得、ここで、1エポックは、750ステップを含む。
非限定的な実施形態では、学習率スケジューラを使用して、前の10エポックで検証ダイスの増大がなかった場合、学習率を5%低減し得る。その場合、最良の全体検証ダイスを有するエポックを使用して、最後の推測を行い得る。
その場合、検証ダイススコアは、2つのスコアからなる:a)前景の全体ダイス、及びb)前景を有する画像のみでのダイス。これらの2つのダイススコアの平均が全体ダイスを構成する。
他の方法を使用し得る。そのような構成は、非限定である。しかし、そのような組合せには、多数の偽陽性を生じさせ得る拡散した病理を有する非前景画像の大きい集合が存在するという利点がある。
ステップ204:アルゴリズムのテスト
トレーニングされると、分類器を使用して、使用された特徴が例のクラスについての情報を含むか否かを決定することができる。この関係は、テストデータの異なる集合で学習された分類器を使用することによってテストされる。
本実施形態では、脳MRIでの梗塞の識別をT2加重流体減衰反転回復法(FLAIR)、拡散強調撮像(DWI)及び磁化率強調血管造影法(SWAN)又はグラジエントエコー(GRE)MRIシーケンスのタプルに基づいて実行した。
インハウス放射線技師によってアノテーションされた、医療スキャンでの手動でアノテーションした発見を使用して分類器114をトレーニングした。放射線的発見を有する既に存在する臨床リポートを参考にし、スキャンでのこれらの発見に対応するボクセルをアノテーションすることにより、医療スキャンをアノテーションした。
トレーニングセットの一部ではない医療スキャンに対して同じインハウス放射線技師によって行ったアノテーションとのダイス重複を計算することにより、分類器114の技術的実現可能性を調べた。
臨床リポートに従って既知の放射線的発見についての対象レベルでの発見毎(1vs残り)の感度及び特異性を計算することにより、分類器114の臨床的実現可能性を調べた。臨床的実現可能性は、本方法で使用される決定アルゴリズムとしての分類器114の能力を示す。
分類器114を29人の対象(梗塞を有する16人及び出血を有する13人)でトレーニングした。梗塞を有する4人の独立した対象を使用してトレーニングされた分類器114を技術的に評価し、80人の独立した対象(梗塞を有する60人及び発見を有さない20人)を使用して臨床的に評価した。結果を以下の表1に示す。
Figure 2022539063000014
分類器114を形成するアルゴリズムが十分にテストされると、分類器114は、図4~図6を参照して以下に説明する補助付き自動化スキャンセッションの一環として利用することができる。
ステップ250:スキャンセッションの準備
ステップ250において、スキャナがスキャンに向けて準備される。これは、対象の体の領域の特定の部位に必要とされるスキャンシーケンス及びプロトコルを決定することを含み得る。
これは、自動的に導出され得るか、又は医療実施者は、特定のスキャンシーケンスを指定し得る。一実施形態では、計算アプリケーション110は、スキャンシーケンスの初期入力に基づいて、特定の患者に必要であり得るスキャンシーケンスを通る最も可能性が高いと見なされるものを計算し得る。これは、経験データ等の他のデータによって提供され得る。例えば、患者記録のセマンティック若しくは自然言語分析、所与の体の部位に最も一般的な病理の経験的知識又は他のデータを使用して、初期「最良推測」を提供することができる。これは、続く分析又は更なるスキャンシーケンスのプレースホルダとしての役割を果たす。
以下の例示的な実施形態は、脳のスキャンを参照する。しかしながら、これは、限定を意図せず、原理上、記載の方法を使用していかなる適した体の部位又は体の領域をスキャンすることができる。
ステップ252:第1のスキャンシーケンスの実行
ステップ252において、第1のスキャンシーケンスが実行される。この実施形態では、第1のスキャンシーケンスは、第1又はレベル1スキャンシーケンスの一部をなす複数の異なる画像取得シーケンスを含む。この実施形態に示され、説明される以下のシーケンス順は、適宜変更され得、異なる順序又は異なるスキャン技法を適宜使用することが可能であることに留意されたい。
この実施形態では、第1のスキャンシーケンスは、以下の技法を含む。
T2 FLAIR
DWI
3D SWI
T1 TSE
これらの技法は、以下の潜在的病理の粗い指標を提供するように選択される:
・腫瘍(全般)、
・グリオーマ(最も一般的なタイプの腫瘍)、
・肉芽腫、
・膿瘍、
・出血、
・微小出血、
・梗塞、
・虚血性変化、
・脱髄、
・新生物、
・水頭症。
取得シーケンスの順序は、重要性に基づいて決定することができる。例えば、T2 FLAIR及びSWIが3Dで取得される場合、リフォーマットされたFLAIRを使用して、水頭症に関する中脳水道狭窄を査定することができ、SWIを使用して、石灰化及び出血/ヘモシデリン(鉄)を査定することができる。したがって、先に列記した潜在的な病理の粗い指標のために他のシーケンスは、必要ない。
図5は、レベル1スキャンシーケンス中の画像取得の時間シーケンスの流れ図を示す。示すように、まず、ローカライザが20秒~30秒間利用される。次いで、T2 FLAIRスキャン取得が実行される。このプロセスは、約3分~5分かかる。そうして取得されたデータは、DICOMルータを介してスキャナ118からインターフェース108を介して計算装置100に送信される。
次のスキャン取得は、DWIスキャンプロセスである。このプロセスは、約2分間続く。このスキャンと同時に、画像処理が画像プロセッサ116によって実行され、分類器112を使用した分類も行われる。これについては、次のステップで説明する。しかし、ステップ252及び254は、時間的に同時に又は少なくとも部分的に同時に行われ得る。有用には、T2 FLAIRプロセスからのスキャン解釈データは、DWIシーケンスが終わる前に取得され得る。
このスキャンが完了すると、処理及び潜在的な病理の識別のために、データは、DICOMルータを介して画像プロセッサ116及び分類器112に送信される。
この実施形態によるレベル1スキャン取得での次の段階は、SWIスキャンの決定である。これは、典型的には、約3分~4分かかる。必要に応じて、T1 TSEの形態の更なるスキャン(時系列図に示されず)を実行し得る。
各スキャン取得で画像スキャンデータが取得される。これは、任意の適した形態を含み得る。例えば、スキャンデータは、単一の画像の画像データ、複数の画像の画像データ又は画像データとメタデータとの組合せを含み得ることに留意されたい。画像スキャンデータは、二次元画像(二次元画像として直接取得されるか、若しくは三次元データから取得される二次元画像として取得される)又は三次元画像を含み得る。代替的に、画像スキャンデータは、画像に直接関連しないが、対象の体の部位の画像を形成するために利用されるデータ及びメタデータを含み得る。
ステップ254:画像の分析及び分類
ステップ252に記したように、ステップ254は、ステップ252と同時に実行され得、したがってレベル1スキャンシーケンスが完了する前に画像分析及び分類の結果を提供することができる。これにより、レベル1とレベル2との間の遷移を事実上シームレスにすることが可能になる。
先に記したように、分類器112のU-netアルゴリズムは、医療スキャン中の各ボクセルを幾つかの候補クラスの1つに分類するようにトレーニングされる。
レベル1スキャンシーケンスを実行するとき、分類器112及び画像プロセッサ116は、入力として各測定での全ての医療スキャンをタプルとしてとり、ボクセル分類マップを出力として作り出す。方法は、関心領域分析及び各構造の特徴選択を用いてボクセル分類ステップを含み得る。
この例では、T2 FLAIRデータセットタプルがステップ252において取得されると、これらのデータセットに対して処理が行われて、ボクセル分類マップが作り出される。ボクセル分類マップは、次いで、医療スキャンタプルの全体分類(すなわち1つ若しくは幾つかの発見が存在すること又は発見が存在しないこと)に集約される。これは、各タイプの発見についてボクセル分類マップを処理することによって達成される。候補発見が識別される場合、タプルは、この発見が存在するものとしてフラグ付けられる。
処理は、連結成分アルゴリズムを使用して、特定のクラスに属するブロブ(又は欠陥)を識別し、識別された最小のブロブが閾値を超える場合、陽性発見と見なされ、タプルは、フラグ付けられる。発見固有の閾値は、特定のプロトコルを構築する一環として予め決定され、必要に応じて決定され得る。
欠陥は、多くの方法で分析され得る。例えば、特徴検出をボクセル分類マップに対して使用して、特定の病理を示す欠陥を識別することができる。加えて、画像品質問題に関する欠陥を特徴付けフラグ付けることもできる。
代替的に、実施形態では、これは、上記の例示的な実施形態で説明したように、異方性ガウスブロブ検出を実行することを含む。更なる代替の方法を使用し得る。例えば、等方性ガウスブロブ検出及び/又はリッジ検出をボクセル分類マップに適用して、トレーニングプロセスでフラグ付けられた特定の病理を示す欠陥を識別することができる。
ステップ256:次のステップの決定
ステップ254において医療スキャンタプルにおいてフラグ付けられた発見に基づいて、任意の更なるシーケンスが必要であるか否かが決定される。代替又は追加として、ステップ254における分析を介して識別された任意の潜在的な病理は、医療専門者による即時診断及び/又は治療を必要とし得るか否かが決定される。後者が適用される場合、次のステップは、ステップ260において以下で説明するように、スキャンセッション中、医療専門者による診断及び/又は治療を緊急に進めることができるような可能性の高い病理が識別されたことの通知を提供することを含み得る。
選択されるべき次のステップは、ステップ254における分析によって示された潜在的な病理に依存する。病理及び本発明によりフラグ付けることができるそれらの病理への潜在的な指標の非網羅的なリストを以下に記載する。
1)腫瘍:T2 FLAIR:通常、高信号;T1:通常、低信号;拡散:固形部分で制限;GRE:出血の場合、低信号;GD増強:通常、固形部分
2)肉芽腫:T2 FLAIR:低信号(結核腫);T2 FLAIR:偏心性小結節(NCC - 神経嚢虫症嚢胞);拡散:+/-;GRE:石灰化の場合、低信号;GD増強:辺縁
3)膿瘍:T2 FLAIR:低信号;T1:低等信号;拡散:中心制限;GD増強:辺縁が厚い
4)梗塞
Figure 2022539063000015
5)虚血性変化:T2 FLAIR:高信号;T1:抵等信号;GRE:微小出血が関連し得る
6)脱髄:T2 FLAIR:高信号;T1:抵等信号;拡散:制限+/-;GRE:-;GD増強:周縁/固体プラーク様/輪の破れ
7)水頭症:T2 FLAIR:脳室周囲コンフルエント高信号+/-;T1:+/-;拡散:-;GRE:-;GD増強:軟膜増強+/-
8)出血
Figure 2022539063000016
9)微小出血:T2 FLAIR:-T1:-拡散:+/-;GRE:イエス(3D GREでより良好)
レベル1スキャン取得プロセスでの分析から導出される前記指示及び前記指示に基づいて、次のステップを決定することができる。
先に記したように、レベル1スキャン取得に基づいて、T2 FLAIR及びDWIは、10の病理のうちの8つの存在(出血及び微小出血を除く)の粗い指標を提供する。
ステップ256において、続くシーケンスがあれば、コントラスト増強あり又はなしで、いずれのシーケンスが必要とされるかを決定するステップがとられる。何も見つからない場合、T2又はSWIが取得されて、病理の10の診断の10を見積もる。
脳内の梗塞、微小出血及び/又は出血を示す定量的指標が特定される場合、次のステップは、ステップ260において以下に説明するように、スキャンセッション中、診断及び/又は治療を緊急に進めることができるように、識別された可能性の高い病理を医療専門者に通知することを含み得る。
このステップからの2つの可能な結果がある:後述するように何も見つからないか又は何らかのものが見つかる。
ステップ258:何も見つからない
ステップ256において潜在的な病理の指標が特定されない場合、プロセスは、終了し得る。しかしながら、任意選択的に、臨床参照の自然言語分析に基づいて、コンピュータアプリケーション110は、検査の終了を示唆し得るか、又は重症度に基づいて追加のシーケンスに続き得る。
ステップ260:何らかのものが見つかる
ステップ256において潜在的な病理の陽性指示が識別される場合、学習アルゴリズムに基づいて、コンピュータアプリケーション110は、医療実施者が診断に辿り着けるようにするために必要な追加の画像資料を改善し裏付けるために、他のいずれの行動をとるべきかを示唆し得る。
潜在的な次のシーケンスのリストを図6に示す。手短に列記するが、以下のシーケンスが、上記の識別された病理でのレベル2における更なるテストとして導出された。図6に示すように、利用可能なシーケンスは、以下である。
新生物、腫瘍(グリオーマを含む)及び膿瘍:T1 TSE+3D T1 MPR_GD+(SOS灌流_GD+分光法GD)
肉芽腫:T1 TSE+3D T1 MPR_GD
梗塞:T2 TSE+TOF血管造影又はPC静脈造影(DWI結果に基づく)
虚血性変化/微小出血:3D T1 MPR+T2 TSE+SWI+T1 TSE+TOF血管造影又はPC静脈造影(NLP結果に基づく)
脱髄:T2 TSE+T1 TSE+T2sag(全脊髄スクリーニング)+3D T1 MPR_GD
髄鞘形成不全:T2 TSE+T2sag(全脊髄スクリーニング)+分光法
出血:T2 TSE+T1 TSE+T2/SWI+TOF血管造影又はPC静脈造影(T2 FLAIR及びDWIの結果に基づく)
先天性異常(医療リポートで触れられていない):T2 TSE+3D T1 MPR
不確定異常の発見:NLP分析に基づいてシーケンスを続ける
レベル2スキャンが完了すると、プロセスは、レベル3に進む。レベル3では、何らかの追加の他の病理がレベル2スキャンで識別されない限り、プロセスが終了する。何らかの追加の他の病理がレベル2スキャンで識別される場合、更なるスキャンが行われ得る。
加えて、ステップ256において可能性の高い病理の陽性指示が識別される場合、学習アルゴリズムに基づいて、コンピュータアプリケーション110は、更なるスキャンへの追加又は代替の行動を示唆し得る。
例えば、ステップ256において可能性の高い病理の陽性指示が識別される場合、医療スキャンセッション中に通知を提供し得る。換言すれば、医療スキャンセッション中、患者が依然として医療撮像デバイス118内にいる間、可能性の高い病理に関する、対応する又は示す通知を示し得る。
通知は、任意の適した方法で提供され得る。例えば、通知は、可聴信号として提供され得るか、又は1つのディスプレイ若しくは複数のディスプレイに提供され得る。通知は、医療専門者又は医療撮像機器10のオペレータに提供され得る。
実施形態では、通知は、対象の緊急治療の必要の可能性が高いことを示し得る。したがって、通知は医療専門者又はオペレータに指示又は情報を提供し得る。対象が医療撮像デバイス118内にいる間、医療専門者又はオペレータは、次いで、通知を使用して、対象の緊急治療が必要であるか否かについての適した診断を行うことができる。
実施形態では、1つ又は複数の定量的指標は、出血、微小出血又は梗塞の1つ又は複数の指示を提供し得る。その場合、適した通知は、医療専門者に対象に脳卒中が存在する可能性が高いことを示し得る。次いで、医療専門者は、症状の診断及び必要とされる必要を行うことができる。
実施形態では、通知は、血栓溶解治療、抗凝血投薬又は抗凝血投薬を回避する治療が必要である可能性が高いことを示し得る。そのような治療が必要である可能性が高いことの指示を提供することにより、本発明は、医療実施者に注意を促し、迅速な診断及び依然として医療撮像デバイス118内にいる対象に対応する適切な治療を行うことを促進する通知を提供する。
上記の通知と後続スキャンの推奨との組合せを使用し得、当業者によって容易に考えられるであろう。
[例1]
例1では、医療画像セグメンテーションの2つの異なるタスク:a)脳卒中病変セグメンテーション、及びb)出血セグメンテーションにわたりハイパーパラメータの組を使用しようとする、本発明の方法との併用に適した異なるエンコーダ-デコーダアーキテクチャが評価される。
[例1:データ]
合計で997人の対象をこの研究に考慮した。全ての研究は、以下のシーケンスを有した:流体減衰反転回復法シーケンス(FLAIR:平均形状(512;512;20)、及び平均ボクセルサイズ(0.46mm;0.46mm;7mm))、拡散強調撮像シーケンス(DWI:平均形状(256;256;20)、及び平均ボクセルサイズ(1.05mm;1.05mm;7mm))、及び磁化率強調撮像法シーケンス(SWI)又はT2グラジエントエコーシーケンス(GRE)(SWI/GRE:平均形状(512;512;72)、及び平均ボクセルサイズ(0.46mm;0.46mm;2mm))の何れか。
第1のデータセット(データセットA)では、梗塞を有する156の事例、出血を有する67の事例があり、残りは、正常事例と、他の病理を有する事例との混合である(20%は、性能評価のために確保した)。データセットAは、モデル選択に使用する。アーキテクチャが選択されると、別のデータセット(同じ人口動態を有する)を使用して、選択されたアーキテクチャをトレーニングし、アーキテクチャのマルチクラスバージョンを評価する。第2のデータセット(データセットB)は、合計で773の事例を有する(腫瘍を有する125の事例、出血を有する135の事例、出血を有する189の事例)。その中の98の事例は、分類性能の検証及び報告のために確保した。
この例で3つのモデルを考慮する。全てのモデルは、上述したようなU-netという同じベースネットワークを有する。追加の変更が以下のようにモデルに対して行われる。
[例1-1]
3D U-Netは、エンコーダ及びデコーダの一致するスケール間にスキップ接続を有するエンコーダ-デコーダ構造を有する。入力とU-Netとの間にドロップアウト(率0.25)を有する2つの畳み込み層(それぞれ12フィルタ)を使用する。エンコーダにおける各スケールは、サイズ2の最大プーリング層を表す。デコーダにおける各スケールは、アップサンプリング層を表す。トリリニア補間をアップサンプリングに使用する。
2つのスケール間において、後にインスタンス正則化層が続く2つの畳み込み層が使用される。各畳み込み層は、漏洩ReLU(負の傾き1e-2)を装備する。パッチサイズ192×192×192が使用される。12のフィルタが第1の層で使用され、後にエンコーダにおける24、48及び56のフィルタが続く。同様の数のフィルタがデコーダで使用されるが、順序は、逆である。
全ての畳み込みは、カーネルサイズ3及びストライド1を用いて実行される。終わりに、シグモイド活性化関数を使用して、ロジットを前景及び背景に属する確率に変換する。
[例1-2 - U-Net VAE]
引用文献[1b]に開示されるものに大まかに対応するこのモデルでは、潜在空間の規則化に使用されるのは、変分オートエンコーダ(VAE)である。VAE分岐は、エンコーダの最後の層から始まる。エンコーダの最初の層は、正規分布の平均及び標準偏差を生成し、そこから32次元ベクトルがサンプリングされる。ベクトルは、次いで、入力の再構築に使用される。サンプリングされたベクトル層は、次いで、エンコーダの最後の層に一致するサイズの層に接続される。続けて、カーネルサイズ1を有する4つの畳み込み層及び4つのアップサンプリング(ファクタ2)層が入力の再構築に使用される。
[例1-3 - カスケードU-Net VAE]
例1-2と同じアーキテクチャを有する2組のU-Net VAEモデルを使用する。第1のU-Netの出力は、入力画像に連結され、第2のネットワークに供給される。第1のU-Netでは、入力画像は、入力においてスケーリング層によりファクタ0.5でスケーリングされる。その場合、出力層は、入力のサイズに合うように2でスケーリングされる。ネットワークは、順次トレーニングされる。
第2のネットワークがトレーニングされている間、第1のネットワークは、固定されることに留意されたい。第2のモデルをトレーニングする間、第1のモデルのU-Net部分のみが使用され、VAE分岐は、推論中、セグメンテーションに何らの影響も有さないために破棄される。
[ネットワークの選択]
正しいアーキテクチャを見つけるために、出血及び梗塞のデータセットのみを使用した。モデル間の比較が行われると、最良のアーキテクチャを使用して、マルチクラスネットワークをトレーニングし、マルチクラスネットワーク、すなわち各ネットワークは、バイナリラベルの代わりにマルチラベル(腫瘍、梗塞及び出血)を有するターゲットを有する。3つのそのようなネットワークをトレーニングした。各ネットワークを使用して、出血、腫瘍及び梗塞を別個にセグメンテーションする。
換言すれば、3つ全てのセグメンテーションを同じネットワークから取得することができるが、出血モデルを使用して、出血セグメンテーションのみを抽出した。
ダイス損失関数及びAdamを使用した最適化に関連して上述したようにトレーニングを実行する。
[例1:結果]
2つのフロントでモデルを評価した:a)ダイススコア、並びにb)感度及び特異性スコアを使用した検出能力。例1のテーブル1にデータセットAでの梗塞セグメンテーションの結果をまとめ、例1のテーブル2にデータセットAでの出血セグメンテーションの結果をまとめる。
最良性能方法は、太字で強調表示されている。両方の問題文において、ベースラインU-Netモデルは、他の2つのモデルよりも優れている。
例1のテーブル3、4は、より大きいブロブサイズ閾値を用いたデータセットBでの性能を示す。エビデンスから、マルチクラスバリエーションは、出血の分類精度(特に特性)でのみ役立つ一方、他の問題では、U-Netバイナリネットワークは、全く同じ性能であることが明らかである。
テーブル1:データセットAでの梗塞セグメンテーションの結果のまとめ。超急性、急性及び亜急性の梗塞のみが考慮される。感度及び特異性は、ダイスに関して最良性能の方法、この場合、標準U-Netモデルでのみ報告されている。ブロブフィルタリング閾値5mmが適用される。
Figure 2022539063000017
テーブル2:データセットAでの出血セグメンテーションの結果のまとめ。全ての年齢の脳出血が考慮される。感度及び特異性は、ダイスに関して最良性能の方法、この場合、標準U-Netモデルでのみ報告されている。ブロブフィルタリング閾値5mmが適用される。
Figure 2022539063000018
テーブル3:データセットBでのバイナリ標準U-Netを使用した梗塞、出血及び腫瘍セグメンテーションの結果のまとめ。ブロブフィルタリング閾値125mmが適用される。
Figure 2022539063000019
テーブル4:データセットBでのマルチクラス標準U-Netを使用した梗塞、出血及び腫瘍セグメンテーションの結果のまとめ。ブロブフィルタリング閾値125mmが適用される。
Figure 2022539063000020
実験例は、毎日のクリニックで見られ得る分析を表す。すなわち、データセットは、臨床関連異常がない画像に加えて、腫瘍、多発性硬化症病変、膿瘍、加齢性虚血性変化のような他の全ての病理から構成される。
示すように、全てのモデルタイプの性能は、良好である。しかし、標準U-netモデルは、他の2つの方法よりも性能が優れている。これは、カスケードモデルが2倍の数のパラメータを有するにも関わらずである。
[例2]
別の例では、病理に自然言語処理を使用して200万の放射線医学リポートを自動的にスキャンして、最も顕著な病理:梗塞(超急性及び急性)並びに腫瘍を反映した5000の脳MRI研究を選択する。
梗塞及び腫瘍病理は、放射線技師の監督下及び品質制御下でトレーニングされたアノテータによってピクセル単位でアノテーションされた。2組のMRI脳プロトコルを臨床的に正常な患者、腫瘍を有する患者及び梗塞を有する患者(及び両方を有する患者)に適用し、確立された。これらは、1)標準臨床プロトコルを利用するコントロール、並びに2)4つのベースシーケンス及び2つまでの追加の専用病理固有シーケンスを利用する本発明によるスマートプロトコルを含む。
[例2-結果]
88スキャンの独立データセットで、シーケンスのスキャンから病院システムへの結果報告までのターンアラウンドタイムは、60秒未満であった。検出の特異性及び感度は、腫瘍95%(88~99%)、78%(52~94%)及び梗塞75%(63~85%)、100%(83~100%)であった。
平均で、この方法では、1患者当たりで取得されたシーケンスは、1.25少なく、病理を有する患者について全体で0.23の専用シーケンスがない。これは、本発明の手法の利点を実証している。
本発明の実施形態について特に、示された例を参照して説明した。しかしながら、本発明の範囲内において、記載の例に対する変形形態及び変更形態がなされ得ることが理解されるであろう。
例えば、実施形態では、U-Netのトレーニングは、高度データ増強を使用して、より多くのトレーニングデータを人工的に生成することによって更に改良することができる。例えば、代替のPADDITアルゴリズム[3]を使用することにより。
更に、幾つかの発見(例えば解剖学的)について又は豊富なトレーニングデータの場合、ニューラルネットアルゴリズム/U-netは、医療スキャンタプルを入力として入力することにより、全体発見について直接トレーニングすることができ、ボクセルワイズアノテーションに向けてトレーニングする代わりに、タプルにおける臨床的発見に向けて直接トレーニングすることができる。
更に、医療スキャンでのバイアスフィールドに起因したノイズを低減するために、バイアスフィールド補正を適用することができる。例えば、テンプレートに向けて微分バイアス補正手法[4、5]を使用するか、又はバイアス補正するようにU-Netをトレーニングすることによる。後者は、適切なトレーニングデータを必要とし、非常に高速のバイアス補正法を提供することができる。トレーニングセットは、入力として生のMRIスキャンであることができ、ターゲットとしてN4(現行水準のバイアスフィールド補正法)バイアス補正済みスキャンであることができる。更に、多断面U-Net[6]及び/又はランダム投影拡張[7]の使用による3D情報の効率的な利用である。
最後に、ボクセルレベル結果は、スカルストリッピングを元の医療スキャンに適用して、脳組織及び脳脊髄液ボクセルのマップを取得することにより事後処理することができる。このマップは、脳外部の任意の誤ってセグメンテーションされたボクセルのフィルタリングに使用される。高速スカルストリッピングは、例えば、ROBEXアルゴリズム[8]から取得されるスカルストリッピングされたグラウンドトゥルース又は手動でセグメンテーションされたグラウンドトゥルースに基づいてスカルストリッピングするようにU-Netをトレーニングすることによって取得することができる。
態様では、本明細書に記載の実施形態は、デジタル画像から情報を抽出する方法に関する。しかしながら、本明細書に記載の実施形態は、前記方法を実行するコンピュータの命令セットとして又は適宜プログラムされたコンピュータとして等しく適用可能である。
本明細書に記載の方法は、使用にあたり、ソフトウェア及び/又はファームウェアに形成され、上記の方法を実行するように動作可能である1つ又は複数のコンピュータプログラムを実行する適したコンピュータシステム又はデバイスで実行される。適したコンピュータシステムは、一般に、ハードウェア及びオペレーティングシステムを含む。
「コンピュータプログラム」という用語は、アプリケーションプログラム、ミドルウェア、オペレーティングシステム、ファームウェア若しくはデバイスドライバ又は実行可能プログラムコードをサポートする任意の他の媒体の何れかを意味する(しかし、必ずしもこれらに限定されない)ものとして解釈される。
「ハードウェア」という用語は、プロセッサ、メモリデバイス、通信ポート、入/出力デバイス等であるが、これらに限定されないコンピュータシステム/デバイスを構成する物理的要素の集合の任意の1つ又は複数を意味するものとして解釈され得る。「ファームウェア」という用語は、組み込みシステム等であるが、これに限定されない、任意の永続的なメモリ及びその内部に記憶されるプログラムコード/データを意味するものとして解釈され得る。「オペレーティングシステム」という用語は、コンピュータハードウェアを管理し、一般的なサービスをコンピュータプログラムに提供するソフトウェアの1つ又は複数、多くの場合に集合を意味するものとして解釈し得る。
比較ステップは、値又は平均値がそのようなコンピュータ内のデータベース又はメモリロケーションに記憶されているデータセットに対する前の測定を利用して行うこともできる。コンピュータは、読み出しとして比較結果を表示するようにプログラムされ得る。
本明細書に記載の方法は、ソフトウェア及び/又はハードウェアの1つ又は複数で実施し得る。ソフトウェアは、好ましくは、ハードディスクドライブ、RAM、ROM、固体状態メモリ又はソフトウェアに構成される他の適したメモリデバイス若しくは構成要素の任意の1つ又は複数等であるが、これらに限定されないメモリデバイスに保持又は他の方法で符号化される。方法は、ソフトウェアを実行する/稼働させることによって実現され得る。追加又は代替として、方法は、ハードウェア符号化され得る。
ソフトウェア又はハードウェアに符号化された方法は、好ましくは、1つ又は複数のプロセッサを使用して実行される。メモリ、ハードウェア及び/又はプロセッサは、好ましくは、1つ又は複数のサーバ及び/又は他の適した計算システムとして又はその少なくとも一部として含まれる。
参考文献
1.a Ronneberger O.,Fischer P.,Brox T.(2015)“U-Net:Convolutional Networks for Biomedical Image Segmentation”In:Navab N.,Hornegger J.,In Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015.Lecture Notes in Computer Science,vol 9351.Springer,Cham
1.b Myronenko,A(2018)“3D MRI brain tumor segmentation using autoencoder regularization”,arXiv:abs/1810.11654
1.c.Hongying Liu,Xiongjie Shen,Fanhua Shang,Feihang Ge,and Fei Wang,“CU-net:Cascaded U-net with loss weighted sampling for brain tumor segmentation,Multimodal Brain Image Analysis and Mathematical Foundations of Computational Anatomy,Pages 102-111,Cham,2019.Springer International Publishing.ISBN 978-3-030-33226-6
1.d.Fabian Isensee,Jens Petersen,Andre Klein,David Zimmerer,Paul F.Jaeger,Simon Kohl,Jakob Wasserthal,Gregor Koehler,Tobias Norajitra,Sebastian Wirkert,and Klaus H.Maier-Hein.“Nnu-net:Self-adapting framework for u-net-based medical image segmentation”ArXiv,abs/1809.10486,2018
2.Patrice Y.Simard,Dave Steinkraus,John C.Platt(2003)Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis,In Seventh International Conference on Document Analysis and Recognition
3.Mauricio Orbes-Ortega,Lauge Sorensen,Jorge Cardoso,Marc Modat,Sebastien Ourselin,Stefan Sommer,Mads Nielsen,Christian Igel,Akshay Pai(2019)PADDIT:Probabilistic Augmentation of Data using Diffeomorphic Image Transformation,In Medical Imaging 2019:Image Processing,SPIE Medical Imaging 2019.
4.Bin Zou,Akshay Pai,Lauge Sorensen,Mads Nielsen,Simultaneous registration and bilateral differential bias correction in brain MRI,in MICCAI 2014 Workshop on Intelligent Imaging:linking MR acquisition and processing,2014
5.Bin Zou,Akshay Pai,Lauge Sorensen,Mads Nielsen,Bias Correction in Images,U.S.patent application US20170243336A1
6.Kaisar Kushibar,Sergi Valverde,Sandra Gonzalez-Villa,Jose Bernal,Mariano Cabezas,Arnau Oliver,Xavier Llado,Automated sub-cortical brain structure segmentation combining spatial and deep convolutional features,Medical Image Analysis 48,2018,177-186.
7.Perslev,Mathias;Pai,Akshay Sadananda Uppinakudru;Igel,Christian;Dam,Erik Bjornager(2018),Knee Segmentation by Multiplanar Deep Learning Network-with data from OAI,In 12th International Workshop on Osteoarthritis Imaging.
8.Iglesias JE,Liu CY,Thompson P,Tu Z:“Robust Brain Extraction Across Datasets and Comparison with Publicly Available Methods”,IEEE Transactions on Medical Imaging,30(9),2011,1617-1634.

Claims (55)

  1. 医療撮像システムを使用して対象の医療スキャンを実行する方法であって、
    a)医療スキャンセッションを開始することと、
    b)前記医療スキャンセッション中、前記医療撮像システムを使用して第1の画像取得シーケンスを実行して、第1の画像スキャンデータを取得することと、
    c)コンピュータシステムを使用して、前記第1の画像取得シーケンス中に取得された前記第1の画像スキャンデータに対して画像分析を実行して、病理及び/又は画像品質の1つ又は複数の定量的指標を識別することと、
    d)ステップc)における1つ又は複数の定量的指標の前記識別に基づいて、前記コンピュータシステムを使用して、前記医療スキャンセッション中に任意の追加の画像取得シーケンスが必要とされるか否かを決定することと、それが必要とされる場合、
    e)前記コンピュータシステムを使用して、前記1つ又は複数の定量的指標に基づいて第2の画像取得シーケンスを決定することと、
    f)前記医療スキャンセッション中、前記医療撮像システムを使用して第2の画像取得シーケンスを実行して、第2の画像スキャンデータを取得することと
    を含む方法。
  2. 前記第1の画像スキャンデータ及び/又は前記第2の画像スキャンデータは、二次元画像スキャンデータを含む、請求項1に記載の方法。
  3. 前記第1の画像スキャンデータ及び/又は前記第2の画像スキャンデータは、三次元画像スキャンデータを含む、請求項1に記載の方法。
  4. ステップc)は、分類器を使用して実行され、及び前記1つ又は複数の定量的指標は、ボクセル分類を含む、請求項2又は3に記載の方法。
  5. ステップc)は、
    g)前記第1の画像スキャンデータからボクセル分類マップを生成すること
    を更に含む、請求項4に記載の方法。
  6. ステップg)は、
    h)前記ボクセル分類マップを前記第1の画像スキャンデータの全体分類に集約すること
    を更に含む、請求項5に記載の方法。
  7. i)所定のボクセル分類に属するボクセル分類マップにおける任意のブロブを識別するステップと、
    j)前記識別されたブロブを所定の閾値と比較するステップと、
    k)前記所定の閾値を超える場合、潜在的な病理の陽性指示を識別するステップと
    を更に含む、請求項5又は6に記載の方法。
  8. 前記コンピュータシステムは、ニューラルネットワークアルゴリズムを含む、請求項1~7のいずれか一項に記載の方法。
  9. 前記ニューラルネットワークアルゴリズムは、畳み込みニューラルネットワークアルゴリズムを含む、請求項8に記載の方法。
  10. 前記ニューラルネットワークアルゴリズムは、U-netを含む、請求項8又は9に記載の方法。
  11. ステップa)前に、
    l)医療スキャンタプルの組を含むトレーニングセットを使用して、定量的指標を識別するように前記ニューラルネットワークアルゴリズムをトレーニングすること
    を更に含む、請求項8~10のいずれか一項に記載の方法。
  12. ステップl)は、関連するグラウンドトゥルースアノテーションを利用することを含む、請求項11に記載の方法。
  13. ステップc)は、病理及び/又は画像品質の定量的指標をブラインド予測するように動作可能である、請求項1~12のいずれか一項に記載の方法。
  14. ステップc)は、特定の対象の事前画像スキャンデータを必要としない、請求項1~13のいずれか一項に記載の方法。
  15. 前記第1の画像取得シーケンスは、複数の異なるスキャンタイプを含む、請求項1~14のいずれか一項に記載の方法。
  16. 前記医療撮像システムは、MRIスキャナを含み、及び前記複数のスキャンタイプは、T2 FLAIR、DWI、3D SWI、T2グラジエントエコー及びT1 TSEの群から選択される、請求項15に記載の方法。
  17. ステップb)は、第1のタイプの第1の画像スキャンを実行し、その後、第2のタイプの第2の画像スキャンを実行することを含む、請求項15又は16に記載の方法。
  18. ステップc)は、前記第2の画像スキャンが行われている間、前記第1の画像スキャンからの画像スキャンデータに対して実行される、請求項17に記載の方法。
  19. 定量的指標は、以下の潜在的な病理:腫瘍(全般)、グリオーマ、肉芽腫、膿瘍、出血、微小出血、梗塞、虚血性変化、脱髄、新生物、神経変性疾患及び水頭症の1つ又は複数の指示を提供する、請求項1~18のいずれか一項に記載の方法。
  20. ステップd)は、
    m)ステップc)における病理の定量的指標の1つ又は複数の前記識別に基づいて、前記コンピュータシステムを使用して、通知が生成されるべきか否かを決定すること
    を更に含み、及び生成されるべきであると決定される場合、前記方法は、
    n)前記医療スキャンセッション中、前記1つ又は複数の識別された定量的指標に関連する可能性の高い病理に関する通知を生成すること
    を更に含む、請求項1~19のいずれか一項に記載の方法。
  21. 前記通知は、前記医療スキャンセッション中、前記医療撮像システムのオペレータ及び/又は医療専門者に提供される、請求項20に記載の方法。
  22. 前記通知は、前記対象の緊急治療が必要である可能性が高いことを示す、請求項20又は21に記載の方法。
  23. ステップc)において識別される前記1つ又は複数の定量的指標は、出血、微小出血又は梗塞及び前記緊急治療が脳卒中に関するものであることの1つ又は複数の指示を提供する、請求項22に記載の方法。
  24. 前記通知は、血栓溶解治療、抗凝血投薬又は抗凝血投薬を回避する治療が必要である可能性が高いことを示す、請求項23に記載の方法。
  25. 医療撮像システムを使用して対象の医療スキャンを実行する方法であって、
    a)医療スキャンセッションを開始することと、
    b)前記医療スキャンセッション中、前記医療撮像システムを使用して画像取得シーケンスを実行して、画像スキャンデータを取得することと、
    c)コンピュータシステムを使用して、前記画像取得シーケンス中に取得された前記画像スキャンデータに対して画像分析を実行して、病理の1つ又は複数の定量的指標を識別することと、
    d)ステップc)における病理の前記定量的指標の1つ又は複数の前記識別に基づいて、前記コンピュータシステムを使用して、通知が生成されるべきか否かを決定することと
    を含み、及び生成されるべきであると決定される場合、
    e)前記医療スキャンセッション中、前記1つ又は複数の識別された定量的指標に関連する可能性が高い病理に関する通知を生成すること
    を更に含む方法。
  26. 前記通知は、前記医療スキャンセッション中、前記医療撮像システムのオペレータ及び/又は医療専門者に提供される、請求項25に記載の方法。
  27. 前記通知は、前記対象の緊急治療が必要である可能性が高いことを示す、請求項25又は26に記載の方法。
  28. ステップc)において識別される前記1つ又は複数の定量的指標は、出血、微小出血又は梗塞及び前記緊急治療が脳卒中に関するものであることの1つ又は複数の指示を提供する、請求項27に記載の方法。
  29. 前記通知は、血栓溶解治療、抗凝血投薬又は抗凝血投薬を回避する治療が必要である可能性が高いことを示す、請求項28に記載の方法。
  30. ステップc)は、
    f)コンピュータシステムを使用して、前記画像取得シーケンス中に取得された前記画像スキャンデータに対して画像分析を実行して、画像品質の1つ又は複数の定量的指標を識別すること
    を更に含む、請求項25~29のいずれか一項に記載の方法。
  31. ステップd)は、
    g)ステップc)における1つ又は複数の定量的指標の前記識別に基づいて、前記コンピュータシステムを使用して、前記医療スキャンセッション中に任意の追加の画像取得シーケンスが必要とされるか否かを決定することと、それが必要とされる場合、
    h)前記コンピュータシステムを使用して、前記1つ又は複数の定量的指標に基づいて第2の画像取得シーケンスを決定することと、
    i)前記医療スキャンセッション中、前記医療撮像システムを使用して第2の画像取得シーケンスを実行して、第2の画像スキャンデータを取得することと
    を更に含む、請求項25~30のいずれか一項に記載の方法。
  32. 前記画像スキャンデータ及び/又は第2の画像スキャンデータは、二次元画像スキャンデータを含む、請求項25~31のいずれか一項に記載の方法。
  33. 前記画像スキャンデータ及び/又は第2の画像スキャンデータは、三次元画像スキャンデータを含む、請求項25~31のいずれか一項に記載の方法。
  34. ステップc)は、分類器を使用して実行され、及び前記1つ又は複数の定量的指標は、ボクセル分類を含む、請求項32又は33に記載の方法。
  35. ステップc)は、
    j)前記画像スキャンデータからボクセル分類マップを生成すること
    を更に含む、請求項34に記載の方法。
  36. ステップg)は、
    k)前記ボクセル分類マップを前記画像スキャンデータの全体分類に集約すること
    を更に含む、請求項35に記載の方法。
  37. l)所定のボクセル分類に属するボクセル分類マップにおける任意のブロブを識別するステップと、
    m)前記識別されたブロブを所定の閾値と比較するステップと、
    n)前記所定の閾値を超える場合、潜在的な病理の陽性指示を識別するステップと
    を更に含む、請求項35又は36に記載の方法。
  38. 前記コンピュータシステムは、ニューラルネットワークアルゴリズムを含む、請求項25~37のいずれか一項に記載の方法。
  39. 前記ニューラルネットワークアルゴリズムは、畳み込みニューラルネットワークアルゴリズムを含む、請求項38に記載の方法。
  40. 前記ニューラルネットワークアルゴリズムは、U-netを含む、請求項38又は39に記載の方法。
  41. ステップa)前に、
    o)医療スキャンタプルの組を含むトレーニングセットを使用して、定量的指標を識別するように前記ニューラルネットワークアルゴリズムをトレーニングすること
    を更に含む、請求項38~40のいずれか一項に記載の方法。
  42. ステップo)は、関連するグラウンドトゥルースアノテーションを利用することを含む、請求項41に記載の方法。
  43. ステップc)は、病理及び/又は画像品質の定量的指標をブラインド予測するように動作可能である、請求項25~42のいずれか一項に記載の方法。
  44. ステップc)は、特定の対象の事前画像スキャンデータを必要としない、請求項25~43のいずれか一項に記載の方法。
  45. 前記画像取得シーケンスは、複数の異なるスキャンタイプを含む、請求項25~44のいずれか一項に記載の方法。
  46. 前記医療撮像システムは、MRIスキャナを含み、及び前記複数のスキャンタイプは、T2 FLAIR、DWI、3D SWI、T2グラジエントエコー及びT1 TSEの群から選択される、請求項45に記載の方法。
  47. ステップb)は、第1のタイプの画像スキャンを実行し、その後、第2のタイプの第2の画像スキャンを実行することを含む、請求項45又は46に記載の方法。
  48. ステップc)は、前記第2の画像スキャンが行われている間、前記画像スキャンからの画像スキャンデータに対して実行される、請求項47に記載の方法。
  49. 前記医療撮像システムは、MRIスキャナを含み、及び画像スキャンデータは、磁気共鳴撮像(MRI)によって作り出される、請求項1~48のいずれか一項に記載の方法。
  50. 前記医療撮像システムは、CTスキャナを含み、及び画像スキャンデータは、コンピュータ断層撮像(CT)データを含む、請求項1~49のいずれか一項に記載の方法。
  51. 前記医療撮像システムは、PETスキャナを含み、及び画像スキャンデータは、PETデータを含む、請求項1~50のいずれか一項に記載の方法。
  52. 定量的指標は、非関連画像スキャンデータを利用する事前のトレーニングプロセスから導出される、請求項1~51のいずれか一項に記載の方法。
  53. 請求項1~52のいずれか一項に記載の方法を実行するように構成された処理デバイスを含むコンピュータシステム。
  54. 実行されると、請求項1~52のいずれか一項に記載の方法を実行するように構成された命令を含むコンピュータ可読媒体。
  55. 処理デバイスと、記憶デバイスと、請求項54に記載のコンピュータ可読媒体とを含むコンピュータシステム。
JP2021576813A 2019-06-26 2020-06-26 スキャナ内患者データ取得分析のための改良された医療スキャンプロトコル Pending JP2022539063A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1909212.1A GB2586119B (en) 2019-06-26 2019-06-26 An improved medical scan protocol for in-scanner patient data acquisition analysis
GB1909212.1 2019-06-26
PCT/EP2020/068168 WO2020260671A1 (en) 2019-06-26 2020-06-26 An improved medical scan protocol for in-scanner patient data acquisition analysis

Publications (1)

Publication Number Publication Date
JP2022539063A true JP2022539063A (ja) 2022-09-07

Family

ID=67511512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021576813A Pending JP2022539063A (ja) 2019-06-26 2020-06-26 スキャナ内患者データ取得分析のための改良された医療スキャンプロトコル

Country Status (7)

Country Link
US (1) US20230252622A1 (ja)
EP (1) EP3991092A1 (ja)
JP (1) JP2022539063A (ja)
CN (1) CN114341928A (ja)
CA (1) CA3144555A1 (ja)
GB (1) GB2586119B (ja)
WO (1) WO2020260671A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020525127A (ja) 2017-06-26 2020-08-27 ザ・リサーチ・ファウンデーション・フォー・ザ・ステイト・ユニヴァーシティ・オブ・ニューヨーク 仮想膵臓撮影法のためのシステム、方法、およびコンピュータ・アクセス可能媒体
DE102019209790A1 (de) * 2019-07-03 2021-01-07 Siemens Healthcare Gmbh Verfahren zur Bereitstellung eines Bewertungsdatensatzes von einem ersten medizinischen dreidimensionalen Computertomographiedatensatz
CN111127395B (zh) * 2019-11-19 2023-04-07 中国人民解放军陆军军医大学第一附属医院 一种基于swi图像和循环神经网络的血管识别方法
CN111709481B (zh) * 2020-06-17 2023-12-12 云南省烟草农业科学研究院 一种烟草病害识别方法、系统、平台及存储介质
CN114076913B (zh) * 2020-08-19 2024-05-17 西门子(深圳)磁共振有限公司 一种前瞻性采集校正序列触发的磁共振成像方法和装置
CN113516754B (zh) * 2021-03-16 2024-05-03 哈尔滨工业大学(深圳) 一种基于磁异常模量数据的三维可视化成像方法
CN116482035B (zh) * 2023-06-21 2023-11-17 之江实验室 一种基于柔性超声探头的光声断层成像方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60139457D1 (de) * 2000-02-02 2009-09-17 Gen Hospital Corp Ungen unter verwendung einer geweberisikokarte
US20080009707A1 (en) * 2006-06-15 2008-01-10 Theriault Richard H Three-dimensional rendering of MRI results using automatic segmentation
GB201416416D0 (en) 2014-09-17 2014-10-29 Biomediq As Bias correction in images
US10475217B2 (en) * 2016-03-16 2019-11-12 General Electric Company Systems and methods for progressive imaging
WO2018174721A2 (en) * 2017-03-23 2018-09-27 Brainwidesolutions As Indicator fluids, systems, and methods for assessing movement of substances within, to or from a cerebrospinal fluid, brain or spinal cord compartment of a cranio-spinal cavity of a human
EP3704667B1 (en) * 2017-10-31 2021-05-26 Koninklijke Philips N.V. Deep learning based motion artifact prediction during magnetic resonance image data acquisition

Also Published As

Publication number Publication date
WO2020260671A1 (en) 2020-12-30
GB2586119A (en) 2021-02-10
US20230252622A1 (en) 2023-08-10
GB201909212D0 (en) 2019-08-07
CA3144555A1 (en) 2020-12-30
CN114341928A (zh) 2022-04-12
GB2586119B (en) 2022-04-06
EP3991092A1 (en) 2022-05-04

Similar Documents

Publication Publication Date Title
JP2022539063A (ja) スキャナ内患者データ取得分析のための改良された医療スキャンプロトコル
Zhao et al. A novel U-Net approach to segment the cardiac chamber in magnetic resonance images with ghost artifacts
US9858665B2 (en) Medical imaging device rendering predictive prostate cancer visualizations using quantitative multiparametric MRI models
Haghighi et al. Automatic renal segmentation in DCE-MRI using convolutional neural networks
Van Hespen et al. An anomaly detection approach to identify chronic brain infarcts on MRI
Jog et al. PSACNN: Pulse sequence adaptive fast whole brain segmentation
KR102344157B1 (ko) 개인 맞춤형 뇌졸중 진단을 위한 임상 인자 및 의료 영상 처리 시스템
JP2023540910A (ja) 病変検出のための共同訓練を伴う接続機械学習モデル
US11580642B2 (en) Disease region extraction apparatus, disease region extraction method, and disease region extraction program
US11049251B2 (en) Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region
Saad et al. Review of brain lesion detection and classification using neuroimaging analysis techniques
Wang et al. JointVesselNet: Joint volume-projection convolutional embedding networks for 3D cerebrovascular segmentation
Ma et al. MRI image synthesis with dual discriminator adversarial learning and difficulty-aware attention mechanism for hippocampal subfields segmentation
US20220114699A1 (en) Spatiotemporal resolution enhancement of biomedical images
Rava et al. Performance of angiographic parametric imaging in locating infarct core in large vessel occlusion acute ischemic stroke patients
Baccouch et al. A comparative study of CNN and U-Net performance for automatic segmentation of medical images: application to cardiac MRI
Kim et al. Fat-saturated image generation from multi-contrast MRIs using generative adversarial networks with Bloch equation-based autoencoder regularization
Spieker et al. Deep learning for retrospective motion correction in MRI: a comprehensive review
Amador et al. Stroke lesion outcome prediction based on 4D CT perfusion data using temporal convolutional networks
Abbasi et al. Automatic brain ischemic stroke segmentation with deep learning: A review
Kanumuri et al. A survey: Brain tumor detection using MRI image with deep learning techniques
La Rosa et al. MPRAGE to MP2RAGE UNI translation via generative adversarial network improves the automatic tissue and lesion segmentation in multiple sclerosis patients
Song et al. Temporal similarity perfusion mapping: A standardized and model-free method for detecting perfusion deficits in stroke
Chandra et al. CCsNeT: Automated Corpus Callosum segmentation using fully convolutional network based on U-Net
Loizillon et al. Automatic motion artefact detection in brain T1-weighted magnetic resonance images from a clinical data warehouse using synthetic data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220218

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20220217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240507