JP2024513845A - System and method for automatic template-based detection of anatomical structures - Google Patents

System and method for automatic template-based detection of anatomical structures Download PDF

Info

Publication number
JP2024513845A
JP2024513845A JP2023560465A JP2023560465A JP2024513845A JP 2024513845 A JP2024513845 A JP 2024513845A JP 2023560465 A JP2023560465 A JP 2023560465A JP 2023560465 A JP2023560465 A JP 2023560465A JP 2024513845 A JP2024513845 A JP 2024513845A
Authority
JP
Japan
Prior art keywords
image
template
interest
anatomical
boundaries
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023560465A
Other languages
Japanese (ja)
Inventor
エワート マーク ハーケ
イン ワン
Original Assignee
スピンテック インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スピンテック インコーポレイテッド filed Critical スピンテック インコーポレイテッド
Publication of JP2024513845A publication Critical patent/JP2024513845A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4082Diagnosing or monitoring movement diseases, e.g. Parkinson, Huntington or Tourette
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

解剖学的構造を検出するためのシステム及び方法は、複数の訓練被験者の訓練被験者ごとに、対応するMR画像と、複数の訓練被験者のうちの第1の訓練被験者に基づいて、初期解剖テンプレートを生成することと、を含む。コンピューティングデバイスは、大域変換と、続く局所変換と、を適用することによって、他の訓練被験者のMR画像をテンプレート空間上にマッピングすることができ、マッピングされたMR画像を初期解剖学テンプレートと平均して、最終的な解剖学テンプレートを生成することができ、最終的な解剖学テンプレートに関心の解剖学的構造の境界を描画することができる。コンピューティングデバイスは、エッジ検出アルゴリズムを使用して境界を微調整することができる。最終的な解剖学テンプレートを使用して、非訓練被験者において、関心の解剖学的構造の境界を自動で(例えば、人間の介入なしに)識別することができる。【選択図】図1The system and method for detecting anatomical structures includes generating an initial anatomical template for each training subject of a plurality of training subjects based on a corresponding MR image and a first training subject of the plurality of training subjects. The computing device can map the MR images of the other training subjects onto the template space by applying a global transformation followed by a local transformation, can average the mapped MR images with the initial anatomical template to generate a final anatomical template, and can draw a boundary of the anatomical structure of interest on the final anatomical template. The computing device can refine the boundary using an edge detection algorithm. The final anatomical template can be used to automatically (e.g., without human intervention) identify the boundary of the anatomical structure of interest in the untrained subjects.

Description

関連出願の相互参照
本出願は、2021年4月2日に出願され、「SYSTEMS AND METHODS FOR AUTOMATIC TEMPLATE-BASED DETECTION OF ANATOMICAL STRUCTURES」と題された米国仮特許出願第63/170,229号の優先権及び利益を主張するものであり、その内容は参照によりその全体が本明細書に組み込まれる。
CROSS-REFERENCE TO RELATED APPLICATIONS This application is filed in U.S. Provisional Patent Application No. 63/170, 2, filed on April 2, 2021, and entitled “SYSTEMS AND METHODS FOR AUTOMATIC TEMPLATE-BASED DETECTION OF ANATOMICAL STRUCTURES.” No. 29 priority claims, the contents of which are incorporated herein by reference in their entirety.

本開示は、概して、解剖学的構造の境界を検出又は識別する分野に関する。具体的には、本開示は、標準化されたテンプレートを生成し、かつそのようなテンプレートを使用して解剖学的構造の境界を自動で検出又は識別するための方法及びシステムに関する。 TECHNICAL FIELD This disclosure relates generally to the field of detecting or identifying boundaries of anatomical structures. In particular, the present disclosure relates to methods and systems for generating standardized templates and using such templates to automatically detect or identify boundaries of anatomical structures.

解剖学的構造の境界の識別を必要とする1つの疾患は、パーキンソン病(PD)であり、これは、60歳超の個体のおよそ1%に影響を及ぼす慢性進行性神経変性障害である。PDは、黒質緻密部(SNpc)における神経黒質(NM)の早期神経変性と、黒質(SN)における鉄沈着の増加と、によって病理学的に特徴付けられる。SNの変性は、多数の神経変性疾患の進行の特徴である。進行性核上性麻痺(PSP)及び多系統萎縮(MSA)を含む非定型パーキンソン障害においては、SNpcの広範囲のニューロン損失も生じるが、これらの障害ではSNの種々のサブ領域が影響を受ける。 One disease that requires identification of anatomical boundaries is Parkinson's disease (PD), a chronic progressive neurodegenerative disorder that affects approximately 1% of individuals over the age of 60. PD is pathologically characterized by early neurodegeneration of the substantia nigra (NM) in the substantia nigra pars compacta (SNpc) and increased iron deposition in the substantia nigra (SN). Degeneration of the SN is a hallmark of the progression of numerous neurodegenerative diseases. Widespread neuronal loss of the SNpc also occurs in atypical parkinsonian disorders, including progressive supranuclear palsy (PSP) and multiple system atrophy (MSA), in which different subregions of the SN are affected.

SNは、解剖学的及び機能的に別異する2つの領域、SN網様部(SNpr)及びSNpcから構成されている。SNpcは、ドーパミン作動性ニューロンを含有するNMの密な分布を含有する一方、鉄含有量は、SNprにおいてより高い傾向がある。しかしながら、SNpcドーパミン作動性ニューロン(ニグロソームとして知られる)のクラスターは、SNpr内に深く埋め込まれており、それゆえに、SNprとSNpcとの間の境界は、特にSNの尾部領域において描写することが困難である。PDの領域選択性は、SNpcの腹側外側層における色素性ニューロンの50%~70%の損失(症状の発症時)に比較的に特異的である。SNについて、赤核(RN)及び視床下核(STN)の鉄沈着及び体積変化は、疾患ステータス及び進行率と関連付けられることが報告されており、また、PD患者における脳深部刺激(DBS)治療の重要な標的として機能する。 The SN is composed of two anatomically and functionally distinct regions, the SN pars reticularis (SNpr) and the SNpc. The SNpc contains a dense distribution of NM containing dopaminergic neurons, while iron content tends to be higher in the SNpr. However, clusters of SNpc dopaminergic neurons (known as nigrosomes) are deeply embedded within the SNpr, and therefore the boundary between the SNpr and SNpc is difficult to delineate, especially in the caudal region of the SN. It is. The regional selectivity of PD is relatively specific with a 50%-70% loss of pigmented neurons in the ventrolateral layer of the SNpc (at the time of symptom onset). Regarding the SN, iron deposition and volume changes in the red nucleus (RN) and subthalamic nucleus (STN) have been reported to be associated with disease status and progression rate, and deep brain stimulation (DBS) treatment in PD patients has also been reported. serves as an important target for

少なくとも1つの態様によれば、磁気共鳴メージング(MRI)システムは、磁気共鳴(MR)データを取得するように構成されたMRIスキャナと、少なくとも1つのプロセッサと、メモリであって、メモリ上にコンピュータコード命令が記憶されたメモリと、を備える。コンピュータコード命令は、少なくとも1つのプロセッサによって実行されるときに、少なくとも1つのプロセッサに、複数の訓練被験者の訓練被験者ごとに、MRIスキャナを介して、1つ以上の関心の解剖学的構造を例示するコントラストを伴う対応するMR画像を取得させる。少なくとも1つのプロセッサは、複数の訓練被験者のうちの第1の訓練被験者の第1のMRデータに基づいて、初期解剖学テンプレート画像を生成することができる。初期解剖学テンプレート画像は、テンプレート空間を定義することができる。第1の訓練被験者以外の複数の訓練被験者の訓練被験者ごとに、少なくとも1つのプロセッサは、(i)訓練被験者のMR画像に大域変換を適用して、テンプレート空間において、訓練被験者のMRデータの第1の推定値を表すMR画像の第1のモーフィングバージョンを生成し、(ii)訓練被験者のMR画像の第1のモーフィングバージョンに局所変換を適用して、テンプレート空間において、訓練被験者のMRデータの第2の推定値を表すMR画像の第2のモーフィングバージョンを生成することができる。少なくとも1つのプロセッサは、初期解剖学テンプレート画像と複数の訓練被験者のMR画像の第2のモーフィングバージョンとを平均して、最終的な解剖学テンプレート画像を生成することができる。少なくとも1つのプロセッサは、最終的な解剖学テンプレートに1つ以上の関心の解剖学的構造の境界を描写し、最終的な解剖学テンプレートを使用して、他の非訓練被験者の1つ以上の関心の解剖学的構造の境界を識別することができる。 According to at least one aspect, a magnetic resonance imaging (MRI) system includes: an MRI scanner configured to acquire magnetic resonance (MR) data; at least one processor; a memory in which code instructions are stored. The computer code instructions, when executed by the at least one processor, cause the at least one processor to instantiate one or more anatomical structures of interest through an MRI scanner for each training subject of the plurality of training subjects. A corresponding MR image with a contrast of At least one processor can generate an initial anatomical template image based on first MR data of a first training subject of the plurality of training subjects. The initial anatomical template image may define a template space. For each training subject of the plurality of training subjects other than the first training subject, at least one processor (i) applies a global transform to the MR images of the training subject to (ii) applying a local transformation to the first morphing version of the training subject's MR image to create a first morphed version of the training subject's MR data in template space; A second morphed version of the MR image representing the second estimate can be generated. At least one processor can average the initial anatomical template image and the second morphed version of the MR images of the plurality of training subjects to generate a final anatomical template image. At least one processor delineates boundaries of one or more anatomical structures of interest in a final anatomical template, and uses the final anatomical template to delineate boundaries of one or more anatomical structures of other non-training subjects. Boundaries of anatomical structures of interest can be identified.

少なくとも1つの態様によれば、方法は、MRIスキャナを介して、複数の訓練被験者の訓練被験者ごとに、1つ以上の関心の解剖学的構造を例示するコントラストを伴う対応するMR画像を取得することを含むことができる。方法は、コンピューティングデバイスが、複数の訓練被験者のうちの第1の訓練被験者の第1のMRデータに基づいて、初期解剖学テンプレート画像を生成することを含むことができる。初期解剖学テンプレート画像は、テンプレート空間を定義することができる。第1の訓練被験者以外の複数の訓練被験者の訓練被験者ごとに、コンピューティングデバイスは、(i)訓練被験者のMR画像に大域変換を適用して、テンプレート空間において、訓練被験者のMRデータの第1の推定値を表すMR画像の第1のモーフィングバージョンを生成し、(ii)訓練被験者のMR画像の第1のモーフィングバージョンに局所変換を適用して、テンプレート空間において、訓練被験者のMRデータの第2の推定値を表すMR画像の第2のモーフィングバージョンを生成することができる。方法は、初期解剖学テンプレート画像を、第1の訓練被験者以外の複数の訓練被験者のMR画像の第2のモーフィングバージョンと平均して、最終的な解剖学テンプレート画像を生成することを含むことができる。方法は、最終的な解剖学テンプレートに1つ以上の関心の解剖学的構造の境界を描写することと、最終的な解剖学テンプレートを使用して、他の非訓練被験者の1つ以上の関心の解剖学的構造の境界を識別することと、を含むことができる。 According to at least one aspect, a method acquires, via an MRI scanner, a corresponding MR image with contrast illustrating one or more anatomical structures of interest for each training subject of the plurality of training subjects. This may include: The method can include the computing device generating an initial anatomical template image based on first MR data of a first training subject of the plurality of training subjects. The initial anatomical template image may define a template space. For each training subject of the plurality of training subjects other than the first training subject, the computing device (i) applies a global transform to the MR image of the training subject to create a first set of MR data of the training subject in template space; (ii) applying a local transformation to the first morphing version of the training subject's MR image to represent the first morphed version of the training subject's MR data in template space; A second morphed version of the MR image representing an estimate of 2 can be generated. The method may include averaging the initial anatomical template image with a second morphed version of MR images of a plurality of training subjects other than the first training subject to generate a final anatomical template image. can. The method includes delineating the boundaries of one or more anatomical structures of interest in a final anatomical template and using the final anatomical template to delineate one or more anatomical structures of interest in other non-trained subjects. identifying the boundaries of the anatomical structure;

少なくとも1つの態様によれば、非一時的コンピュータ可読媒体は、非一時的コンピュータ可読媒体上に記憶されたコンピュータコード命令を含むことができる。コンピュータコード命令は、プロセッサによって実行されるとき、プロセッサに、複数の訓練被験者の訓練被験者ごとに、MRIスキャナを介して、1つ以上の関心の解剖学的構造を例示するコントラストを伴う対応するMR画像を取得させることができる。プロセッサは、複数の訓練被験者のうちの第1の訓練被験者の第1のMRデータに基づいて、初期解剖学テンプレート画像を生成することができる。初期解剖学テンプレート画像は、テンプレート空間を定義することができる。第1の訓練被験者以外の複数の訓練被験者の訓練被験者ごとに、プロセッサは、(i)訓練被験者のMR画像に大域変換を適用して、テンプレート空間において、訓練被験者のMRデータの第1の推定値を表すMR画像の第1のモーフィングバージョンを生成し、(ii)訓練被験者のMR画像の第1のモーフィングバージョンに局所変換を適用して、テンプレート空間において、訓練被験者のMRデータの第2の推定値を表すMR画像の第2のモーフィングバージョンを生成することができる。プロセッサは、初期解剖学テンプレート画像を、第1の訓練被験者以外の複数の訓練被験者のMR画像の第2のモーフィングバージョンと平均して、最終的な解剖学テンプレート画像を生成することができる。プロセッサは、最終的な解剖学テンプレートに1つ以上の関心の解剖学的構造の境界を描写し、最終的な解剖学テンプレートを使用して、他の非訓練被験者の1つ以上の関心の解剖学的構造の境界を識別することができる。 According to at least one aspect, non-transitory computer-readable media can include computer code instructions stored on the non-transitory computer-readable media. The computer code instructions, when executed by the processor, cause the processor to scan a corresponding MR image with contrast illustrating one or more anatomical structures of interest through an MRI scanner for each training subject of the plurality of training subjects. Images can be acquired. The processor can generate an initial anatomical template image based on the first MR data of a first training subject of the plurality of training subjects. The initial anatomical template image may define a template space. For each training subject of the plurality of training subjects other than the first training subject, the processor (i) applies a global transform to the MR images of the training subject to obtain a first estimate of the training subject's MR data in template space; (ii) applying a local transformation to the first morphed version of the training subject's MR image to create a second morphed version of the training subject's MR data in template space; A second morphed version of the MR image representing the estimate can be generated. The processor may average the initial anatomical template image with a second morphed version of MR images of a plurality of training subjects other than the first training subject to generate a final anatomical template image. The processor delineates the boundaries of the one or more anatomical structures of interest in the final anatomical template and uses the final anatomical template to delineate the one or more anatomical structures of interest in other non-training subjects. Be able to identify the boundaries of a scientific structure.

本開示の本発明の概念による、解剖学テンプレートを生成するための方法を例示するフローチャートである。3 is a flowchart illustrating a method for generating an anatomical template in accordance with the inventive concepts of the present disclosure. 本開示の本発明の概念による、解剖学的構造の特性の自動テンプレートベース識別の方法を例示するフローチャートである。2 is a flowchart illustrating a method for automatic template-based identification of anatomical structure characteristics in accordance with the inventive concepts of the present disclosure. 本開示の本発明の概念による、解剖学的構造の境界を検出又は識別するためのシステムを例示する図を示す。1 shows a diagram illustrating a system for detecting or identifying boundaries of an anatomical structure in accordance with the inventive concepts of the present disclosure; FIG. NM-MRIテンプレート空間におけるNMの視点と、QSMテンプレート空間におけるSN、RN、及びSTNの視点と、を描写する磁気共鳴(MR)画像を示す。Magnetic resonance (MR) images depicting the NM perspective in NM-MRI template space and the SN, RN, and STN perspectives in QSM template space are shown. テンプレート空間から元の空間へNM境界をマッピングするための様々なステップを例示する画像を示す。Figure 3 shows images illustrating various steps for mapping NM boundaries from template space to original space. テンプレート空間から元の空間へSN、RN境界及びSTN境界をマッピングするための様々なステップを例示する画像を示す。Figure 3 shows images illustrating various steps for mapping SN, RN boundaries and STN boundaries from template space to original space. 様々なシナリオに基づいて、ニューロメラニン(NM)の体積比値に対してプロットされたダイス類似度係数を示す。Figure 3 shows Dice similarity coefficients plotted against neuromelanin (NM) volume ratio values based on various scenarios. 様々なシナリオに基づいて、ニューロメラニン(NM)の体積比値に対してプロットされたダイス類似度係数を示す。Figure 3 shows Dice similarity coefficients plotted against neuromelanin (NM) volume ratio values based on various scenarios. 様々なシナリオに基づいて、黒質(SN)の体積比値に対してプロットされたダイス類似度係数を示す。Figure 3 shows Dice similarity coefficients plotted against substantia nigra (SN) volume ratio values based on various scenarios. 様々なシナリオに基づいて、黒質(SN)の体積比値に対してプロットされたダイス類似度係数を示す。Figure 3 shows Dice similarity coefficients plotted against substantia nigra (SN) volume ratio values based on various scenarios. 様々なシナリオに基づいて、赤核(RN)の体積比値に対してプロットされたダイス類似度係数を示す。1 shows the Dice similarity coefficient plotted against the volume ratio values of the red nucleus (RN) under various scenarios. 様々なシナリオに基づいて、視床下核(STN)の体積比値に対してプロットされたダイス類似度係数を示す。Figure 3 shows the Dice similarity coefficient plotted against subthalamic nucleus (STN) volume ratio values based on various scenarios. 30個の訓練症例(上部プロット)及び57個の検証症例(下部プロット)の手動及びテンプレートのセグメント化から結果として得られるSN、RN、及びSTNの鉄含有量間の相関を例示するプロットを示す。Shows plots illustrating the correlation between SN, RN, and STN iron content resulting from manual and template segmentation of 30 training cases (top plot) and 57 validation cases (bottom plot). . 30人の健常対照についてのマニュアル及びテンプレートのニューロメラニン(NM)バックグラウンド測定値間の一致を描写するプロットを示す。A plot depicting the agreement between manual and template neuromelanin (NM) background measurements for 30 healthy controls is shown. 動的プログラミングアルゴリズム(DPA)を使用して識別されたNM境界に対するバックグラウンド境界を例示する画像を示す。FIG. 3 shows an image illustrating background boundaries relative to NM boundaries identified using the Dynamic Programming Algorithm (DPA). テンプレート空間から元の空間への変換後のバックグラウンド境界と、NM DPA境界と、を例示する画像を示す。An image is shown illustrating the background boundary and the NM DPA boundary after transformation from template space to original space. DPAのパラメータαの種々の値で再構成された境界を例示する画像を示す。Figure 3 shows images illustrating boundaries reconstructed with various values of the DPA parameter α. DPAを使用して、2つの異なる強度を有する矩形領域の境界を識別するためのシミュレーション結果を示す。We present simulation results for using DPA to identify the boundary of a rectangular region with two different intensities. DPAを使用して、2つの異なる強度を有する三日月形状領域の境界を識別するためのシミュレーション結果を示す。We show simulation results for using DPA to identify the boundary of a crescent-shaped region with two different intensities. DPAを使用して、2つの異なる強度を有するカシュー形状領域の境界を識別するためのシミュレーション結果を示す。We show simulation results for using DPA to identify the boundaries of cashew-shaped regions with two different intensities.

パーキンソン病(PD)などのいくつかの疾患について、疾患の状態に関する情報、及び/又はいくつかの治療で有用な情報が、いくつかの解剖学的構造の体積若しくは他の幾何学的特性から推定され得る。PDの場合、黒質(SN)について、赤核(RN)及び視床下核(STN)の鉄沈着及び体積変化は、疾患ステータス及び進行率と関連付けられていることが知られており、また、PD患者における脳深部刺激(DBS)治療の重要な標的として機能する。したがって、SN及びSNのサブ領域、RN、並びにSTNの正確かつ包括的なインビボの描写が、PDと中脳に影響を及ぼす他の運動障害とにおける鉄及びニューロメラニン(NM)の組成の変化を十分に調査するのに有用であり得よう。したがって、SN、SNのサブ領域、並びに赤核(RN)及び視床下核(STN)などの他の中脳構造の正確なインビボの描写が、PDにおける鉄及びNMの変化を十分に調査するのに有用であり得よう。 For some diseases, such as Parkinson's disease (PD), information about the disease state and/or useful in some treatments can be estimated from the volume or other geometric properties of some anatomical structures. can be done. In PD, iron deposition and volume changes in the substantia nigra (SN), red nucleus (RN) and subthalamic nucleus (STN) are known to be associated with disease status and progression rate; It serves as an important target for deep brain stimulation (DBS) therapy in PD patients. Therefore, an accurate and comprehensive in vivo delineation of the SN and SN subregions, RN, and STN is essential to detect changes in iron and neuromelanin (NM) composition in PD and other movement disorders affecting the midbrain. It may be useful to investigate fully. Therefore, accurate in vivo delineation of the SN, subregions of the SN, and other midbrain structures such as the red nucleus (RN) and subthalamic nucleus (STN) is essential to fully investigate iron and NM changes in PD. could be useful.

これまで、多くの研究が依然として、手動又は半自動のアプローチを使用して、脳深部灰白質を画定している。しかしながら、手動のセグメント化は、特に大量のデータを評価する必要がある場合に、時間がかかる。また、評価者が十分に訓練されていない限り、手動描画は、個体間で、又は部位間で、再現の信頼性が低い。インビボ描写のためのいくつかのアプローチは、鉄及びNMの含有量をマッピングするためのテンプレートの使用を含むことができる。そのようなアプローチでは、標準化されたテンプレートを作成することは、(a)鉄及びNMの分布の変化を認識すること、(b)そのような分布と関連付けられた体積を自動で計算すること、(c)鉄含有量とNM信号の変化とを定量化すること、及び(d)これらの測定値の信頼性に著しい影響を与え得る。従来の構造MRシーケンスを使用するSNの解剖学テンプレートは、いくつかの研究で以前に使用されている。T1加重(T1W)及びT2加重(T2W)画像を採用して、高分解能確率的インビボ皮質下核アトラスを作成することができ、これらの画像は、SNを黒質緻密部(SNpc)及び黒質網様部(SNpr)にセグメント化することができるようになった。そのようなアトラスは、若年成人集団(例えば、平均値±標準偏差の年齢:28.9±3.6歳)からの画像に基づく場合、高齢者を対象とした研究には好適でないことがある。更に、T1W及びT2Wのコントラスト画像の両方を、高齢者対象におけるSNpcとSNprとの間の高度に噛み合った境界を描写するために容易に使用することができない。脳の異なる部分へのSNサブ領域の解剖学的接続に基づいて、拡散ベースのトラクトグラフィーを使用して、SNをSNpc及びSNprにセグメント化するか、又はSN/腹側被蓋領域(VTA)を背内側及び腹外側のサブ領域に細分化することができる。しかしながら、推定される構造的接続性は、周知の偏倚を有し、データ取得及びファイバ追跡アルゴリズムに大きく依存し、拡散イメージングは、低分解能データ取得に悩まされている。それゆえに、高分解能イメージングを使用してSN及びSNのサブ領域の直接的な視覚化及びセグメント化が、特にSNの微妙な病理学的変化の検出に関して言えば、より正確な選択肢となろう。 To date, many studies still use manual or semi-automated approaches to define deep brain gray matter. However, manual segmentation is time consuming, especially when large amounts of data need to be evaluated. Also, unless the rater is well trained, manual drawings have low reliability of reproducibility between individuals or between sites. Some approaches for in vivo delineation can include the use of templates to map iron and NM content. In such an approach, creating a standardized template can (a) recognize changes in iron and NM distributions; (b) automatically calculate volumes associated with such distributions; (c) quantifying iron content and NM signal changes; and (d) can significantly impact the reliability of these measurements. Anatomical templates of the SN using conventional structural MR sequences have been used previously in several studies. T1-weighted (T1W) and T2-weighted (T2W) images can be employed to create a high-resolution probabilistic in vivo subcortical nucleus atlas, which distinguishes the SN from the substantia nigra pars compacta (SNpc) and the substantia nigra. It is now possible to segment the pars reticularis (SNpr). Such atlases may not be suitable for studies in older adults if they are based on images from a young adult population (e.g. mean ± standard deviation age: 28.9 ± 3.6 years). . Furthermore, both T1W and T2W contrast images cannot be easily used to delineate the highly interdigitated boundary between SNpc and SNpr in elderly subjects. Based on the anatomical connectivity of SN subregions to different parts of the brain, we use diffusion-based tractography to segment the SN into SNpc and SNpr, or the SN/ventral tegmental area (VTA). can be subdivided into dorsomedial and ventrolateral subregions. However, the estimated structural connectivity has known biases and is highly dependent on the data acquisition and fiber tracking algorithms, and diffusion imaging suffers from low resolution data acquisition. Therefore, direct visualization and segmentation of the SN and subregions of the SN using high-resolution imaging would be a more accurate option, especially when it comes to detecting subtle pathological changes in the SN.

中脳核の境界を判定し、かつPD患者の病理学的変化を検討するための1つのアプローチは、鉄含有領域が低強度で現れる、T2*加重勾配エコー(GRE)イメージング及び感受性加重イメージング(SWI)の使用に基づき得る。一方、定量的感受性マッピング(QSM)の開発は、フェリチン及びヘモシデリンに貯蔵された鉄の定量化を可能にする。QSMベースの技法は、PD患者において組織の磁気感受性が脳内鉄とよく相関することを示している。加えて、DBSの術前標的誘導では、QSMは、伝統的なT2*Wイメージングよりも優れている。しかしながら、QSM単独では、SNpc及びSNprの両方が鉄を含有するため、SNpcをSNprから分離することができない。この制限は、過去数年間に開発されたニューロメラニン感受性MRI(NM-MRI)を使用することによって解決され得る。SNpc及び腹側被蓋領域(VTA)は、主にNMを含有するドーパミン作動性ニューロンで構成されているが、SNprは、そうではない。このゆえに、中脳におけるNM-MRIで見られる高強度信号は、SNpc及びVTAの領域と空間的に関連付けられている(このことは、死後の組織学的研究によって検証されている)。それゆえに、NMの体積(SNpcとVTAとを加えたもの)と鉄含有SNの体積(SNpcとSNprとを加えたもの)との間の重複は、SNpcを表すと考えられる。 One approach to determine the boundaries of mesencephalic nuclei and examine pathological changes in PD patients is T2 * -weighted gradient echo (GRE) imaging and susceptibility-weighted imaging (GRE), where iron-containing regions appear hypointense. SWI). On the other hand, the development of quantitative susceptibility mapping (QSM) allows the quantification of iron stored in ferritin and hemosiderin. QSM-based techniques have shown that tissue magnetic susceptibility correlates well with brain iron in PD patients. In addition, QSM is superior to traditional T2 * W imaging for preoperative target guidance of DBS. However, QSM alone cannot separate SNpc from SNpr because both SNpc and SNpr contain iron. This limitation can be overcome by using neuromelanin-sensitive MRI (NM-MRI), which has been developed in the past few years. The SNpc and ventral tegmental area (VTA) are primarily composed of NM-containing dopaminergic neurons, whereas the SNpr is not. Therefore, the hyperintense signals seen on NM-MRI in the midbrain are spatially associated with regions of the SNpc and VTA (this has been verified by post-mortem histological studies). Therefore, the overlap between the volume of NM (SNpc plus VTA) and the volume of iron-bearing SN (SNpc plus SNpr) is considered to represent SNpc.

これまでのところ、既存のアプローチは、QSM及び/又はNM-MRIイメージングを使用してSNpcを正確かつ確実にセグメント化しない。SNアトラスは、QSMのみを使用して得られ得る。代替的に、例えば手動描画、自動セグメント化、又は人工知能を使用して作成された、NM-MRIイメージングに基づくNMテンプレートが採用され得る。テンプレートを使用する目的は、境界の識別を容易にすることであろう。しかしながら、テンプレートマッピングは、完璧ではなく、境界をマークするための理想的な空間は、元の無垢のデータ空間にある。テンプレート空間(他の全ての脳がマッピングされる、標準的な固定された脳又はボランティア)であろうと、元の空間(所与の個人用の元の脳イメージングデータ)であろうと、単純な閾値化方法には欠点がある。閾値を相対的に高い値又は相対的に低い値に設定することは、特に、重度のNM変性、及びSNにおける鉄沈着を有するPD患者において、NM又は鉄の含有量の推定量の劇的な変化につながる可能性がある。また、画像の可変コントラストが、領域成長などのいくつかのアルゴリズムを使用することを困難にする可能性がある。SNが周囲の領域と比較して高い鉄含有量を有するにもかかわらず、鉄が均一に分布しておらず、ニグロソーム1(N1)テリトリーで鉄の低減がある。N1テリトリーなどの構造のギャップはまた、SN及びNMの関心の領域(ROI)を自動でセグメント化することの困難さを増す可能性がある。 So far, existing approaches do not accurately and reliably segment SNpc using QSM and/or NM-MRI imaging. The SN atlas can be obtained using QSM only. Alternatively, NM templates based on NM-MRI imaging may be employed, for example created using manual drawing, automatic segmentation, or artificial intelligence. The purpose of using templates would be to facilitate the identification of boundaries. However, template mapping is not perfect, and the ideal space for marking boundaries is in the original, pristine data space. A simple threshold, whether in template space (a standard fixed brain or volunteer, to which all other brains are mapped) or in original space (original brain imaging data for a given individual) There are drawbacks to this method. Setting the threshold to a relatively high or relatively low value can dramatically reduce the estimated amount of NM or iron content, especially in PD patients with severe NM degeneration and iron deposition in the SN. It could lead to change. Also, the variable contrast of the image can make it difficult to use some algorithms such as region growing. Even though the SN has a high iron content compared to surrounding areas, the iron is not distributed uniformly and there is a reduction in iron in the nigrosome 1 (N1) territory. Gaps in structures such as the N1 territory can also increase the difficulty of automatically segmenting SN and NM regions of interest (ROIs).

現開示では、解剖学的構造を検出するためのシステム及び方法は、単一のマルチエコーNM MRIシーケンスからの高分解能イメージングを使用して、NM及び鉄のテンプレートの両方を作成し、かつテンプレート空間における各構造の境界を計算することを含むことができる。具体的には、単一の高分解能のNM MRIシーケンスからのNM及び鉄のテンプレートの両方を使用して、(i)テンプレート空間における各構造の境界を計算し、(ii)これらの境界を元の空間に戻してマッピングし、次いで(iii)動的プログラミングアルゴリズム(DPA)を使用して元の空間における境界を微調整して、各個人のNM及びSNの特徴の詳細にマッチさせることができる。SNのNMと、SN、STN、及びRNの鉄含有と、についての実験結果は全て、ダイス値及び体積比に関して強い一致を示し、前者は、それぞれ、0.85、0.87、0.75、及び0.92であり、後者は、それぞれ、0.99、0.95、0.89、1.05である。これらの高品質の結果は、体積、鉄含有量、及びニューロメラニン含有量などの組織属性を確度を伴って測定することが可能であることを示している。NM及び鉄に感受性がある複数のシーケンスも使用され得るが、その場合には、2つの間の共同位置合わせが必要とされ得る。 In the current disclosure, a system and method for detecting anatomical structures can include using high-resolution imaging from a single multi-echo NM MRI sequence to create both NM and iron templates and calculate the boundaries of each structure in template space. Specifically, both NM and iron templates from a single high-resolution NM MRI sequence can be used to (i) calculate the boundaries of each structure in template space, (ii) map these boundaries back to the original space, and then (iii) use a dynamic programming algorithm (DPA) to fine-tune the boundaries in the original space to match the details of each individual's NM and SN characteristics. Experimental results for SN NM and SN, STN, and RN iron content all show strong agreement in terms of Dice values and volume ratios, with the former being 0.85, 0.87, 0.75, and 0.92, respectively, and the latter being 0.99, 0.95, 0.89, and 1.05, respectively. These high quality results demonstrate that it is possible to measure tissue attributes such as volume, iron content, and neuromelanin content with accuracy. Multiple sequences sensitive to NM and iron may also be used, in which case co-registration between the two may be required.

図1を参照すると、本開示の本発明の概念に従って、解剖学テンプレートを生成するための方法100を例示するフローチャートが示されている。方法100は、コンピューティングデバイス又はシステムが、複数の訓練被験者の訓練被験者ごとに、対応するMR画像を取得すること(ステップ102)と、複数の訓練被験者のうちの第1の訓練被験者の選択されたMR画像に基づいて、初期解剖学テンプレートを生成すること(ステップ104)と、を含むことができる。方法100は、コンピューティングデバイス又はシステムが、大域変換と、これに続く局所変換と、を適用することによって、他の訓練被験者のMR画像を初期解剖学テンプレートによって定義されたテンプレート空間上にマッピングすること(ステップ106)を含むことができる。方法100は、マッピングされたMR画像及び初期解剖学テンプレートを平均して、最終的な解剖学テンプレートを生成すること(ステップ108)を含むことができる。方法100は、最終的な解剖学テンプレートに関心の解剖学的構造の境界を描画すること(ステップ110)を含むことができる。方法100は、最終的な解剖学テンプレートを使用して、非訓練被験者における関心の解剖学的構造の境界を識別すること(ステップ112)を含むことができる。 Referring to FIG. 1, a flowchart is shown illustrating a method 100 for generating an anatomical template in accordance with the inventive concepts of the present disclosure. The method 100 includes: a computing device or system acquiring a corresponding MR image for each training subject of a plurality of training subjects (step 102); generating an initial anatomical template based on the acquired MR images (step 104). Method 100 includes a computing device or system mapping MR images of other training subjects onto a template space defined by an initial anatomical template by applying a global transformation followed by a local transformation. (Step 106). Method 100 may include averaging the mapped MR image and the initial anatomical template to generate a final anatomical template (step 108). The method 100 may include drawing boundaries of the anatomical structure of interest in the final anatomical template (step 110). Method 100 may include using the final anatomical template to identify boundaries of anatomical structures of interest in a non-training subject (step 112).

方法100は、コンピューティングデバイス又はシステムが、複数の訓練被験者の訓練被験者ごとに、対応するMR画像を取得すること(ステップ102)を含むことができる。訓練被験者は、年齢、健康状態、又は各対象の病態及び/若しくは病歴などの、いくつかの事前定義された基準に基づいて選択され得る。本明細書に記載の研究は、地元の倫理委員会によって承認されたものであり、全ての被験者が同意書に署名した。87人の健康な被験者(平均年齢:63.4±6.2歳、範囲:45~81歳、53人の女性)を広告で地域から募集した。潜在的な訓練被験者用の除外基準は、(a)腫瘍、硬膜下血腫、又は以前の頭部外傷による挫傷などの構造的異常、(b)脳卒中、中毒、神経又は精神疾患の病歴、及び(c)大容積白質病変(例えば、FazekasグレードIII)を有する1つ以上の大血管疾患疾患を含んでいた。 Method 100 can include a computing device or system acquiring a corresponding MR image for each training subject of a plurality of training subjects (step 102). Training subjects may be selected based on some predefined criteria, such as age, health status, or each subject's medical condition and/or medical history. The study described herein was approved by the local ethics committee, and all subjects signed a consent form. Eighty-seven healthy subjects (mean age: 63.4 ± 6.2 years, range: 45-81 years, 53 women) were recruited from the community by advertisement. Exclusion criteria for potential training subjects were (a) structural abnormalities such as tumors, subdural hematomas, or contusions from previous head trauma; (b) history of stroke, addiction, neurological or psychiatric disease; (c) included one or more macrovascular disease diseases with large volume white matter lesions (e.g., Fazekas grade III);

訓練被験者のMR画像は、MRIスキャナを介して取得され得る。例えば、実施された研究では、15チャンネルヘッドアレイコイルを使用して3T Ingeniaスキャナ(Philips Healthcare、Netherlands)でMRイメージングを実行した。作動磁化伝達コントラスト(MTC)パルスを用いる3D勾配エコーSWIシーケンスの撮像パラメータは、エコーまでの時間(TE)=7.5ms、合計7つのエコーを有するΔTE=7.5ms、繰り返し時間(TR)=62ms、フリップ角度=30°、画素帯域幅=174Hz/画素、マトリックスサイズ=384×144、スライス厚さ=2mm、スライス数=64、0.67×1.34mm2に補間された空間面内分解能=0.67×0.67mm2、感知係数2、k空間の楕円サンプリング、及び4分47秒に等しい合計スキャン時間を含む。磁化伝達(MT)共鳴状態高周波パルスは、90°の公称フリップ角、ゼロ周波数オフセット、及び各々が持続時間1.914ミリ秒(ms)の3ブロックパルスのセットを使用した。許容される最小限のTRは、特定の吸収率の安全性の考慮に基づいて使用された。この62msの長い反復時間に起因して、7つのエコーが収集された。 MR images of the training subject may be acquired via an MRI scanner. For example, in a study conducted, MR imaging was performed on a 3T Ingenia scanner (Philips Healthcare, Netherlands) using a 15-channel head array coil. Imaging parameters for the 3D gradient echo SWI sequence with actuated magnetization transfer contrast (MTC) pulses were: time to echo (TE) = 7.5 ms, ΔTE = 7.5 ms with a total of 7 echoes, repetition time (TR) = 62 ms, flip angle = 30°, pixel bandwidth = 174 Hz/pixel, matrix size = 384 x 144, slice thickness = 2 mm, number of slices = 64, spatial in-plane resolution interpolated to 0.67 x 1.34 mm 2 =0.67×0.67 mm 2 , including a sensing factor of 2, elliptical sampling of k-space, and a total scan time equal to 4 minutes and 47 seconds. The magnetization transfer (MT) resonance state radiofrequency pulse used a nominal flip angle of 90°, zero frequency offset, and a set of three block pulses, each 1.914 milliseconds (ms) in duration. The minimum acceptable TR was used based on safety considerations for specific absorption rates. Due to this long repetition time of 62 ms, 7 echoes were collected.

いくつかの実装態様では、コンピューティングデバイス又はシステムは、エコーが主要MTコントラストを提供することから、MTC-SWI大きさ画像(TE=7.5ms)の第1のエコーを使用して、NMコンテンツを描写することができる。コンピューティングデバイス又はシステムは、QSM再構成のために、第2のエコー(TE=15ms)、又は2つ以上のエコーからのQSM画像の組み合わせを使用して、SNにおける鉄沈着を評価することができる。コンピューティングデバイス又はシステムは、(i)脳抽出ツール、BETを使用して、脳をセグメント化すること、(ii)3D位相展開アルゴリズム(3DSRNCP)を使用して、元の位相データを展開すること、(iii)高度高調波アーチファクト削減(SHARP)を使用して、不要なバックグラウンドフィールドを除去すること、及び(iv)最終的なQSMマップを再構成するための反復アプローチを用いる切断k空間分割(TKD)ベースの逆フィルタリング技法を使用することによって、感受性マップを作成することができる。 In some implementations, the computing device or system uses the first echo of the MTC-SWI magnitude image (TE = 7.5 ms) to determine the NM content because the echo provides the primary MT contrast. can be depicted. The computing device or system may assess iron deposition in the SN using a second echo (TE = 15 ms) or a combination of QSM images from two or more echoes for QSM reconstruction. can. The computing device or system (i) segments the brain using a brain extraction tool, BET, and (ii) unrolls the original topological data using a 3D phase unrolling algorithm (3DSRNCP). , (iii) using Advanced Harmonic Artifact Reduction (SHARP) to remove unwanted background fields, and (iv) cutting k-space partitioning using an iterative approach to reconstruct the final QSM map. A susceptibility map can be created by using a (TKD) based inverse filtering technique.

関心の解剖学的構造の境界をトレースする際に、手動の関心の領域(ROI)セグメント化を採用することができる。NM及び鉄の含有量を測定するために、NM、SN、RN、及びSTNの関心の領域(ROI)を、SPINソフトウェア(SpinTech,Inc.、Bingham Farms,MI,USA)を使用して4倍に拡大されたMTCの大きさ及びQSMマップ上で単一の評価者によって手動でトレースすることができる。NMベースのSN境界を、2mmの厚さのスライスが使用される(又は8~10mmの総厚にわたって)場合に、NMが見えなくなるまで、4~5スライスの最後の尾部スライスから開始してトレースすることができる。鉄ベースのSN境界を、視床下核が見える最も頭蓋のスライスの下の1つのスライスから開始してトレースすることができ、最も尾部のスライスまで、又は8~12mmの総厚にわたって、4~6回連続したスライスを継続することができる。RN ROIを、最後の尾部スライスから開始して輪郭を描き、頭蓋のように、又は6~8mmの総厚さにわたって、3~4回のスライスを継続することができる。STN ROIを、2つのスライスについて、頭蓋のように、又は約4mmの総厚にわたって、トレースすることができる。全てのROIについて、動的プログラミングアルゴリズム(DPA)を使用して、主観的な偏倚を軽減するための最終的な境界を判定することができる。次いで、これらの境界を全て、第2の評価者によって1つずつレビューし、第1のレビュー者との合意で相応に修正することができる。 Manual region of interest (ROI) segmentation can be employed in tracing the boundaries of the anatomy of interest. To measure NM and iron content, regions of interest (ROI) of NM, SN, RN, and STN were quadrupled using SPIN software (SpinTech, Inc., Bingham Farms, MI, USA). The magnitude of the MTC scaled up and can be manually traced by a single evaluator on the QSM map. Trace the NM-based SN boundaries starting from the last caudal slice of 4-5 slices until the NM is no longer visible, when 2 mm thick slices are used (or over a total thickness of 8-10 mm). can do. Iron-based SN boundaries can be traced starting from one slice below the most cranial slice where the subthalamic nucleus is visible, up to the most caudal slice, or over a total thickness of 8 to 12 mm, 4 to 6 It is possible to continue with several consecutive slices. The RN ROI can be outlined starting from the last caudal slice and continued cranially or over 3-4 slices over a total thickness of 6-8 mm. The STN ROI can be traced cranially for two slices or over a total thickness of approximately 4 mm. For all ROIs, a dynamic programming algorithm (DPA) can be used to determine the final boundaries to reduce subjective bias. All these boundaries can then be reviewed one by one by a second reviewer and modified accordingly in agreement with the first reviewer.

上述したデータ取得パラメータ及び/又はデータ処理シナリオは、限定の目的ではなく、例示の目的で提供される例示的な実装態様を表すことを理解されたい。例えば、上記で提供されるスライス番号は、2mmに等しいスライス厚さを有する所与の分解能に固有である。1mmの厚さのスライスを使用するとすれば、これらのスライス番号は、全て2倍になる。更に、説明は、主に中脳のPD及び解剖学的構造への適用に焦点を当てているが、本明細書に記載の方法及び技法は、他の用途、又は深部小脳核若しくは線条核及び尾状核、又は他の任意の関心の領域などの、他の解剖学的領域にも適用され得る。 It is to be understood that the data acquisition parameters and/or data processing scenarios described above represent example implementations that are provided for purposes of illustration and not limitation. For example, the slice numbers provided above are specific to a given resolution with a slice thickness equal to 2 mm. If we use 1 mm thick slices, all of these slice numbers will be doubled. Additionally, although the description focuses primarily on applications to midbrain PD and anatomy, the methods and techniques described herein have other uses, or include deep cerebellar or striatal nuclei. It may also be applied to other anatomical regions, such as the caudate nucleus, or any other region of interest.

いくつかの実装態様では、コンピューティングデバイス又はシステムは、MRスキャナに、複数の訓練被験者の訓練被験者ごとに、MRデータ取得、例えば、元の全脳64スライスデータから開始して7.5msエコー時間MTCデータ取得を実行させることができる。MRスキャナは、訓練被験者ごとに、対応する取得されたMRデータに基づいて、対応する三次元(3D)画像(又は複数の対応する二次元(2D)画像)を構築することができる。複数の訓練被験者のMRデータを取得する際に、MRスキャナを、関心の1つ以上の解剖学的構造(例えば、SN、RN、及び/又はSTNの領域)を例示するコントラストを伴う/有するMR画像を生成するように選択されたパラメータで構成することができる。MRスキャナは、複数の訓練被験者の訓練被験者ごとに、NM-MRIデータ(例えば、NM-MRI画像)及び/又はQSMデータ(QSM画像)を取得することができる。 In some implementations, the computing device or system provides an MR scanner with a 7.5 ms echo time for each training subject of the plurality of training subjects for MR data acquisition, e.g., starting from the original whole brain 64 slice data. MTC data acquisition can be performed. The MR scanner can construct a corresponding three-dimensional (3D) image (or a plurality of corresponding two-dimensional (2D) images) for each training subject based on the corresponding acquired MR data. In acquiring MR data of multiple training subjects, the MR scanner is used to perform MR scanning with/with contrast that exemplifies one or more anatomical structures of interest (e.g., regions of the SN, RN, and/or STN). The image can be configured with selected parameters to generate it. The MR scanner can acquire NM-MRI data (eg, NM-MRI images) and/or QSM data (QSM images) for each training subject of a plurality of training subjects.

方法100は、コンピューティングデバイス又はシステムが、複数の訓練被験者のうちの第1の訓練被験者の選択されたMR画像に基づいて、初期解剖学テンプレートを生成すること(ステップ104)を含むことができる。コンピューティングデバイス又はシステム(又はそのユーザ)は、複数の訓練被験者のMR画像の中から、第1の訓練被験者の第1の3DのMR画像(又は対応する2D画像)を選択することができる。選択は、ランダムであり得るか、又は事前定義されたプリファレンス若しくは基準に従い得る。初期解剖学テンプレートを生成する際に、コンピューティングデバイス又はシステムは、第1の訓練被験者の全ての取得されたスライスについて、例えば、所望の最終的な分解能に応じて、2倍、4倍以上の係数で、第1の3D画像(又は対応する2D画像)を平面内で拡大することができる。このステップはまた、テンプレート空間内の等方分解能を得るためのスライス選択方向の補間を含むことができる。テンプレート空間を、所望の分解能、又は取得されたMRデータの分解能よりも高い分解能で定義することができる。いくつかの実装態様では、それぞれ、コンピューティングデバイス又はシステムは、第1の訓練被験者のNMデータ及びQSMデータに基づいて、初期NM-MRIテンプレート及び初期QSMテンプレートを生成することができる。以下で更に詳細に考察されるように、コンピューティングデバイス又はシステムは、初期解剖学テンプレートを使用して、他の訓練被験者のMR画像をテンプレート空間にマッピングすることができる。 Method 100 can include a computing device or system generating an initial anatomical template based on a selected MR image of a first training subject of the plurality of training subjects (step 104). . A computing device or system (or a user thereof) may select a first 3D MR image (or a corresponding 2D image) of a first training subject from among the MR images of a plurality of training subjects. The selection can be random or according to predefined preferences or criteria. In generating the initial anatomical template, the computing device or system calculates the The first 3D image (or the corresponding 2D image) can be expanded in a plane by a factor. This step may also include interpolation of the slice selection direction to obtain isotropic resolution in template space. The template space can be defined at a desired resolution or at a resolution higher than that of the acquired MR data. In some implementations, the computing device or system can generate an initial NM-MRI template and an initial QSM template based on the NM data and QSM data of the first training subject, respectively. As discussed in more detail below, a computing device or system can use the initial anatomical template to map MR images of other training subjects into template space.

方法100は、コンピューティングデバイス又はシステムが、大域変換とこれに続く局所変換とを適用することによって、他の訓練被験者のMR画像を初期解剖学テンプレートによって定義されたテンプレート空間上にマッピングすること(ステップ106)を含むことができる。コンピューティングデバイス又はシステムは、(第1の訓練被験者以外の)他の訓練被験者の画像の各々に大域変換及び局所変換を適用することができる。コンピューティングデバイス又はシステムは、全てのスライスに対する拡大係数(例えば、2、4以上の係数)でMR画像の各MR画像を平面内で拡大した後、第1の訓練被験者以外の他の訓練被験者の各MR画像内の関心の領域を覆う一連のスライスにわたって、大域変換を適用することができる。例えば、中脳について、スライスの厚さが2mmである場合、関心の領域を覆う一連のスライスは、50個の中央スライスのセットであり得る。大域変換は、剛性変換と、例えば、洞察セグメント化及び位置合わせツールキットフリーウェア(ITK)を使用して、bスプライン補間を適用した、続くアフィン変換と、を含むことができる。コンピューティングデバイス又はシステムは、同じ大域変換を適用して、他の訓練被験者の各々についてのQSMデータを初期QSMテンプレートにマッピングすることができる。 Method 100 includes a computing device or system mapping MR images of other training subjects onto a template space defined by an initial anatomical template by applying a global transformation followed by a local transformation. step 106). The computing device or system may apply global and local transformations to each of the images of other training subjects (other than the first training subject). The computing device or system magnifies each MR image of the MR images in a plane by a magnification factor (e.g., a factor of 2, 4 or more) for all slices, and then expands each MR image of the MR images of other training subjects other than the first training subject. A global transform can be applied over a series of slices covering a region of interest within each MR image. For example, for the midbrain, if the slice thickness is 2 mm, the series of slices covering the region of interest may be a set of 50 central slices. The global transformation may include a rigid transformation followed by an affine transformation, for example by applying b-spline interpolation using the Insight Segmentation and Registration Toolkit freeware (ITK). The computing device or system can apply the same global transformation to map the QSM data for each of the other training subjects to the initial QSM template.

コンピューティングデバイス又はシステムは、他の訓練被験者の各MR画像(例えば、QSM画像及び/又はNM-MRI画像)に大域変換を適用して、テンプレート空間において、初期テンプレートの対応するfirs推定を表すMR画像の対応する第1のモーフィングバージョンを生成することができる。すなわち、大域変換を使用して、(第1の訓練被験者以外の)他の訓練被験者の各MR画像をテンプレート空間における初期解剖学テンプレートとマッチさせる。しかしながら、大域変換は、通常、初期解剖学テンプレートにおける解剖学的構造との正確なマッチを提供しない。 The computing device or system applies a global transform to each MR image (e.g., QSM image and/or NM-MRI image) of the other training subjects to obtain an MR image representing a corresponding firs estimate of the initial template in template space. A corresponding first morphed version of the image can be generated. That is, a global transform is used to match each MR image of another training subject (other than the first training subject) to the initial anatomical template in template space. However, global transforms typically do not provide an exact match to the anatomical structures in the initial anatomical template.

変換されたMR画像とテンプレート空間における初期解剖学テンプレートとの間のマッチングを改善するために、コンピューティングデバイス又はシステムは、(第1の訓練被験者以外の)他の訓練被験者のMR画像の第1のモーフィングバージョンに局所変換を適用することができる。コンピューティングデバイス又はシステムは、MR画像の第1のモーフィングバージョンを、中脳を覆うように平面内で、かつ約16個のスライスに(例えば、スライスの厚さが2mmの場合)クロッピングして、中脳テリトリーのカバレッジを確実にすることができる。コンピューティングデバイス又はシステムは、クロッピングされた画像体積に局所変換を適用して、他の訓練被験者のMR画像の第2のモーフィングバージョンを生成することができる。訓練被験者(訓練被験者以外)の各MR画像について、対応する第2のモーフィングバージョンは、テンプレート空間における初期解剖学テンプレートとのより良いマッチングを表す。 In order to improve the matching between the transformed MR images and the initial anatomical template in template space, the computing device or system uses the first of the MR images of other training subjects (other than the first training subject). Local transformations can be applied to morphed versions of . The computing device or system crops the first morphed version of the MR image in a plane to cover the midbrain and into approximately 16 slices (e.g., if the slice thickness is 2 mm); Coverage of the midbrain territory can be ensured. The computing device or system can apply a local transformation to the cropped image volume to generate a second morphed version of the MR image of the other training subject. For each MR image of a training subject (other than the training subject), the corresponding second morphed version represents a better match with the initial anatomical template in template space.

例示的な実装態様として、合計26人の訓練被験者を使用することができる。コンピューティングデバイス又はシステムは、これらの訓練被験者(本明細書では第1の訓練被験者と称される)のうちの1人のMRデータを選択して、初期解剖学テンプレートを生成することができる。次いで、コンピューティングデバイス又はシステムは、他の25人の訓練被験者の各々のMRデータに大域変換及び局所変換を適用して、大域変換及び局所変換を適用した後、他の25人の訓練被験者の各々のMRデータをテンプレート空間における初期解剖学テンプレートにマッピングすることができる。 As an example implementation, a total of 26 training subjects may be used. A computing device or system may select MR data of one of these training subjects (referred to herein as a first training subject) to generate an initial anatomical template. The computing device or system then applies a global transform and a local transform to the MR data of each of the other 25 training subjects, and after applying the global transform and local transform, the MR data of each of the other 25 training subjects. Each MR data can be mapped to an initial anatomical template in template space.

方法100は、マッピングされたMR画像及び初期解剖学テンプレートを平均して、最終的な解剖学テンプレートを生成すること(ステップ108)を含むことができる。コンピューティングデバイス又はシステムは、マッピングされたMR画像を初期解剖学テンプレートと平均して、最終的な解剖学テンプレートを生成することができる。結果は、例えば中脳テリトリーを包含する16個のスライスについて定義された、平均されたテンプレートである。平均された解剖学テンプレートは、単一の訓練被験者のMRデータに基づいて生成された初期解剖学テンプレートと比較して、又は第1のモーフィングバージョンと初期解剖学テンプレートとを平均することによって生成されたテンプレートと比較して、関心の解剖学的構造のより代表的な境界を有する。コンピューティングデバイス又はシステムは、例えば0.167の等方性分解能(合計192スライス)を有するテンプレートを作成するために、スライス選択方向に、平均された解剖学テンプレートを線形補間することができる。 Method 100 may include averaging the mapped MR image and the initial anatomical template to generate a final anatomical template (step 108). A computing device or system can average the mapped MR images with the initial anatomical template to generate a final anatomical template. The result is an averaged template defined for 16 slices encompassing, for example, midbrain territories. The averaged anatomical template is generated by comparing the initial anatomical template generated based on MR data of a single training subject or by averaging the first morphed version and the initial anatomical template. has more representative boundaries of the anatomical structure of interest compared to the template. The computing device or system may linearly interpolate the averaged anatomical template in the slice selection direction to create a template with an isotropic resolution of, for example, 0.167 (192 slices total).

方法100は、最終的な解剖学テンプレート上に関心の解剖学的構造の境界を描画すること(ステップ110)を含むことができる。関心の解剖学的構造(又は領域)の境界のトレースを、例えば医師又は放射線科医によって、手動で実行することができる。方法100のステップ102~108に従って生成された最終的な解剖学テンプレートは、関心の解剖学的構造の増強されたコントラストを示し、したがって、そのような構造の境界のより正確なトレースを可能にする。 The method 100 may include drawing boundaries of the anatomical structure of interest on the final anatomical template (step 110). Tracing the boundaries of the anatomical structure (or region) of interest can be performed manually, for example by a doctor or radiologist. The final anatomical template generated according to steps 102-108 of method 100 exhibits enhanced contrast of the anatomical structures of interest, thus allowing more accurate tracing of the boundaries of such structures. .

最終的な解剖学テンプレートでは、平均値を、境界を見つけるための確率マップを示すものとみなすことができる。いくつかの実装態様では、2つ以上の最終的な解剖学テンプレートを生成することができる。例えば、1つのQSMテンプレート及び1つのNM-MRIテンプレートを、それぞれ、NMデータ及びQSMデータに基づいて生成することができる。いくつかの実装態様では、NM、赤核(RN)、SN、及び視床下核(STN)の境界を、全て手動で描画することができる。ニューロメラニン(NM)データについて、合計192個の補間されたスライスからのスライス44~98を使用して境界を描画することができる一方、QSMデータスライス44~126を使用することができる。スライス番号の実際の選定は、使用される分解能及び補間の程度に依存する。 In the final anatomy template, the average value can be considered as representing a probability map for finding boundaries. In some implementations, more than one final anatomy template may be generated. For example, one QSM template and one NM-MRI template can be generated based on NM data and QSM data, respectively. In some implementations, the boundaries of the NM, red nucleus (RN), SN, and subthalamic nucleus (STN) may all be drawn manually. For neuromelanin (NM) data, slices 44-98 from a total of 192 interpolated slices can be used to draw boundaries, while QSM data slices 44-126 can be used. The actual selection of slice numbers depends on the resolution and degree of interpolation used.

方法100は、境界検出アルゴリズムを使用して、最終的な解剖学テンプレートにおける関心の解剖学的構造の境界を微調整することを更に含むことができる。境界検出アルゴリズムを、動的プログラミングアルゴリズム(DPA)として実装することができる。コンピューティングデバイス又はシステムは、境界検出のためにDPAをラン(又は実行)して、テンプレート境界を確定することができる。DPAは、局所曲率半径及び信号勾配に依存するコスト関数を使用することができる。このアルゴリズムの更なる詳細は、以下で提供される。 Method 100 may further include fine-tuning the boundaries of the anatomical structure of interest in the final anatomical template using a boundary detection algorithm. The boundary detection algorithm can be implemented as a dynamic programming algorithm (DPA). A computing device or system can run DPA for boundary detection to determine template boundaries. DPA may use a cost function that depends on the local radius of curvature and signal slope. Further details of this algorithm are provided below.

方法100は、コンピューティングデバイス又はシステムが、最終的な解剖学テンプレートを使用して、非訓練被験者における関心の解剖学的構造の境界を識別すること(ステップ112)を含むことができる。非訓練被験者における関心の解剖学的構造の境界を識別するための最終的な解剖学テンプレートの使用は、以下で図2に関して詳細に考察される。 Method 100 may include a computing device or system using the final anatomical template to identify boundaries of anatomical structures of interest in a non-training subject (step 112). The use of the final anatomical template to identify the boundaries of anatomical structures of interest in untrained subjects is discussed in detail with respect to FIG. 2 below.

ここで図2を参照すると、本開示の本発明の概念に従って、解剖学的構造の特性の自動テンプレートベース識別の方法200を例示するフローチャートが示されている。方法200は、非訓練被験者のMR画像(又はMRデータ)を取得すること(ステップ202)を含むことができる。方法200は、大域変換と、続く局所変換と、を適用することによって、非訓練被験者のMR画像をテンプレート空間内の最終的な解剖学テンプレートにマッピングすること(ステップ204)を含むことができる。方法200は、最終的な解剖学テンプレートから、1つ以上の関心の解剖学的構造の境界を、非訓練被験者のマッピングされたMR画像上に投影すること(ステップ206)を含むことができる。方法200はまた、関心の解剖学的構造の投影された境界に逆変換を適用して、非訓練被験者のMR画像における境界の推定値を生成すること(ステップ208)を含むことができる。 Referring now to FIG. 2, a flowchart is shown illustrating a method 200 of automatic template-based identification of anatomical structure characteristics in accordance with the inventive concepts of the present disclosure. Method 200 can include acquiring MR images (or MR data) of a non-trained subject (step 202). Method 200 may include mapping MR images of a non-training subject to a final anatomical template in template space (step 204) by applying a global transformation followed by a local transformation. Method 200 may include projecting boundaries of one or more anatomical structures of interest from the final anatomical template onto the mapped MR image of the untrained subject (step 206). Method 200 may also include applying an inverse transformation to the projected boundaries of the anatomy of interest to generate an estimate of the boundaries in the MR image of the untrained subject (step 208).

方法200は、最終的な解剖学テンプレートを使用して、非訓練被験者の関心の解剖学的構造の境界の自動識別を可能にする。解剖学テンプレートを生成するための方法100は、人間の介入(例えば、ステップ110において境界を手動で描画すること)を伴い得るが、非訓練被験者についての関心の解剖学的構造の境界の自動識別のための方法200を、いかなる人間の介入もなく自動で実施/実行することができる。 Method 200 enables automatic identification of boundaries of anatomical structures of interest for untrained subjects using the final anatomical template. Although method 100 for generating anatomical templates may involve human intervention (e.g., manually drawing boundaries in step 110), method 200 for automatic identification of boundaries of anatomical structures of interest for untrained subjects may be performed/executed automatically without any human intervention.

方法200は、コンピューティングデバイスが、非訓練被験者のMR画像(又はMRデータ)を取得すること(ステップ202)を含むことができる。MRスキャナは、図1の方法100のステップ102に関して上で考察されたのと同様の方式で、非訓練被験者のMRデータ(例えば、3DのMR画像又は複数の2DのMR画像)を取得することができる。非訓練被験者は、最終的な解剖学テンプレートを生成するために方法100で使用される複数の訓練被験者に属さない者(例えば、患者又は研究被験者)であり得る。MRスキャナは、非訓練被験者のNMデータ及び/又はQSMデータを取得することができる。 Method 200 may include a computing device acquiring MR images (or MR data) of an untrained subject (step 202). The MR scanner may acquire MR data (e.g., a 3D MR image or multiple 2D MR images) of the untrained subject in a manner similar to that discussed above with respect to step 102 of method 100 of FIG. 1 . The untrained subject may be one (e.g., a patient or a research subject) that is not one of the multiple training subjects used in method 100 to generate the final anatomical template. The MR scanner may acquire NM data and/or QSM data of the untrained subject.

方法200は、大域変換と、続く局所変換と、を適用することによって、非訓練被験者のMR画像をテンプレート空間内の最終的な解剖学テンプレートにマッピングすること(ステップ204)を含むことができる。大域変換及び局所変換は、図1の方法100のステップ106に関して記載されているものと同様であり得る。コンピューティングデバイス又はシステムは、まず、非訓練被験者のMR画像(例えば、NM画像及びQSM画像)に大域変換を適用して、非訓練被験者のMR画像の第1のモーフィングバージョンを生成することができる。 Method 200 may include mapping MR images of a non-training subject to a final anatomical template in template space (step 204) by applying a global transformation followed by a local transformation. The global and local transformations may be similar to those described with respect to step 106 of method 100 of FIG. The computing device or system may first apply a global transform to the MR images (e.g., NM images and QSM images) of the non-training subject to generate a first morphed version of the MR images of the non-training subject. .

大域変換を適用した後、コンピューティングデバイス又はシステムは、非訓練被験者のMR画像の第1のモーフィングバージョンをクロッピングすることができる。例えば、コンピューティングデバイス又はシステムは、テンプレートデータの2つの中央スライスにおけるRNにラベルを付け、それらを元の全脳に戻すことができる。RNが依然として2つのスライスでのみ明らかである場合、最も低いスライスがスライス10に設定される。RNが3つのスライスにある場合、中間のスライスが、スライス10に設定される。このことは、テンプレート空間に戻る最終的な変換の前に、データを最良に中央に配置するための手段を提供する。コンピューティングデバイス又はシステムは、クロッピングされた画像体積を平面内で4倍(又は他の拡大係数)で拡大し、次いで、拡大されたクロッピングされた画像体積に局所変換を適用して、等方性画像を伴う非訓練被験者のMR画像の第2のモーフィングバージョンを取得することができる(変換は、スライス選択方向の補間とともに、画像を等方性にすることを可能にする)。非訓練被験者のMR画像の第2のモーフィングバージョンは、テンプレート空間における最終的な解剖学テンプレートの比較的良好なマッチを表す。補間された平面内分解能は、DPAアルゴリズムを使用して最終的なオブジェクトサイズを推定するためのより正確な手段を提供する。 After applying the global transform, the computing device or system may crop the first morphed version of the MR image of the non-training subject. For example, a computing device or system can label the RNs in the two central slices of template data and return them to the original whole brain. If the RN is still only evident in two slices, the lowest slice is set to slice 10. If the RN is in three slices, the middle slice is set to slice 10. This provides a means to best center the data before the final transformation back to template space. The computing device or system scales the cropped image volume by a factor of 4 (or other scaling factor) in the plane and then applies a local transformation to the scaled cropped image volume to make it isotropic. A second morphed version of the MR image of the untrained subject can be acquired with the image (transformation, together with interpolation of the slice selection direction, allows the image to be made isotropic). The second morphed version of the MR image of the untrained subject represents a relatively good match of the final anatomical template in template space. The interpolated in-plane resolution provides a more accurate means for estimating the final object size using the DPA algorithm.

方法200は、最終的な解剖学テンプレートから、1つ以上の関心の解剖学的構造の境界を、非訓練被験者のマッピングされたMR画像上に投影すること(ステップ206)を含むことができる。非訓練被験者のMR画像が(大域変換及び局所変換を適用することによって)最終的な解剖学テンプレートにマッチング又はマッピングされると、コンピューティングデバイス又はシステムは、最終的な解剖学テンプレートに描画された関心の解剖学的構造の境界を、非訓練被験者のMR画像の第2のモーフィングバージョン上に投影することができる。 Method 200 may include projecting boundaries of one or more anatomical structures of interest from the final anatomical template onto the mapped MR image of the untrained subject (step 206). Once the MR images of the non-training subject are matched or mapped to the final anatomical template (by applying global and local transformations), the computing device or system draws the final anatomical template. Boundaries of the anatomy of interest can be projected onto a second morphed version of the MR image of the untrained subject.

方法200は、関心の解剖学的構造の投影された境界に逆変換を適用して、非訓練被験者のMR画像における境界の推定値を生成すること(ステップ208)を含むことができる。逆変換は、関心の解剖学的構造のテンプレート境界を、非訓練被験者のMR画像の中脳上(例えば、元の画像空間上)に戻してマッピングするために実行される。しかしながら、誰もが異なっており、かつテンプレートマッピングが完璧ではないことから、投影された境界がうまく適合するという保証はない。 Method 200 may include applying an inverse transformation to the projected boundaries of the anatomy of interest to generate an estimate of the boundaries in the MR image of the untrained subject (step 208). An inverse transformation is performed to map the template boundaries of the anatomy of interest back onto the midbrain (eg, onto the original image space) of the MR image of the untrained subject. However, since everyone is different and template mapping is not perfect, there is no guarantee that the projected boundaries will fit well.

方法200は、コンピューティングデバイス又はシステムが、境界検出アルゴリズム(又はDPA)を使用して、非訓練被験者の元の取得されたMR画像における関心の解剖学的構造の境界を微調整することを更に含むことができる。コンピューティングデバイス又はシステムは、QSMデータについて変換された境界の内側の領域に閾値を適用して、負の値を除去することができ、画像細線化を使用して対応する中心線を判定することができる。DPAについて初期開始点を最良に選定するために、Otsuヒストグラム分析及び閾値ベースのアプローチの両方を使用して、元の境界が関心の構造の外部に極端に広がっているかどうかを判定することができる。NMデータについて、コンピューティングデバイス又はシステムは、バックグラウンド強度と、下回った信号がゼロに設定される閾値を作成するために追加された、25人の訓練被験者(又は第1の訓練被験者以外の訓練被験者)全てにわたって平均されたバックグラウンド標準偏差の4倍に等しい定数と、を判定することができる。QSMデータについて、開始閾値をゼロに設定することができる。Otsu閾値が、関心の構造(又は領域)の内部の画素を除去させた値を与えるとき、テンプレート変換された境界は、相応に縮小され得る。QSMデータについて、Otsu閾値が30ppbを超える場合、閾値を、30ppbに設定することができる。最後に、コンピューティングデバイス又はシステムは、(図1に関して上で考察されたように)テンプレート空間で使用される同じDPAを使用して、結果として生じる境界を再び修正することができる。このDPAは、RN境界とともに、SNのRNへの漏れを防止し、テンプレート境界の助けを借りて、STNをSNと区別することができる。 The method 200 further includes the computing device or system using a boundary detection algorithm (or DPA) to fine-tune the boundaries of an anatomical structure of interest in an originally acquired MR image of a non-training subject. can be included. The computing device or system can apply a threshold to the region inside the transformed boundary for the QSM data to remove negative values and determine the corresponding centerline using image thinning. I can do it. To best choose an initial starting point for DPA, both Otsu histogram analysis and a threshold-based approach can be used to determine whether the original boundaries extend too far outside the structure of interest. . For the NM data, the computing device or system uses 25 additional training subjects (or training subjects other than the first A constant equal to four times the background standard deviation averaged over all subjects) can be determined. For QSM data, the starting threshold can be set to zero. When the Otsu threshold gives a value that causes pixels inside the structure (or region) of interest to be removed, the template transformed boundary can be reduced accordingly. For QSM data, if the Otsu threshold exceeds 30 ppb, the threshold can be set to 30 ppb. Finally, the computing device or system can again modify the resulting boundaries using the same DPA used in the template space (as discussed above with respect to FIG. 1). This DPA, together with RN boundaries, prevents leakage of SN into RNs and with the help of template boundaries, STNs can be distinguished from SNs.

図3を参照すると、本開示の本発明の概念による、解剖学的構造の境界を検出又は識別するためのシステム300を例示する図。システム300は、MRデータを取得するためのMRスキャナ302と、取得されたMRデータを処理して、解剖学的構造の境界を検出又は識別するためのコンピューティングデバイス304と、を含むことができる。コンピューティングデバイス304は、プロセッサ306及びメモリ308を含むことができる。メモリ308は、プロセッサ306による実行のためのコンピュータコード命令を記憶することができる。コンピュータコード命令は、プロセッサ306によって実行されるとき、コンピューティングデバイス304に、上で考察された方法100及び/又は方法200を実行させることができる。コンピューティングデバイス304は、MR画像を表示し、方法100及び/若しくは方法200の結果、又は他のデータを出力するためのディスプレイデバイス310を更に含み得る。 Referring to FIG. 3, a diagram illustrating a system 300 for detecting or identifying boundaries of an anatomical structure in accordance with the inventive concepts of the present disclosure. System 300 can include an MR scanner 302 for acquiring MR data and a computing device 304 for processing the acquired MR data to detect or identify boundaries of anatomical structures. . Computing device 304 may include a processor 306 and memory 308. Memory 308 can store computer code instructions for execution by processor 306. The computer code instructions, when executed by processor 306, can cause computing device 304 to perform method 100 and/or method 200 discussed above. Computing device 304 may further include a display device 310 for displaying MR images and outputting results of method 100 and/or method 200, or other data.

いくつかの実装態様では、コンピューティングデバイス304は、MRスキャナ302から分離された電子デバイスであり得る。そのような実装態様では、コンピューティングデバイス304は、MRスキャナ302に通信可能に結合されてもよいし、結合されなくてもよい。例えば、MRスキャナ302によって取得されたMRデータは、フラッシュメモリ、コンパクトディスク(CD)、又は他の記憶デバイスを介してコンピューティングデバイス304に転送されてもよい。コンピューティングデバイス304がMRスキャナ302に通信可能に結合されている場合、MRスキャナ302によって取得されたMRデータは、MRスキャナ302とコンピューティングデバイス304との間の任意の通信リンクを介してコンピューティングデバイス304に転送され得る。 In some implementations, computing device 304 may be an electronic device separate from MR scanner 302. In such implementations, computing device 304 may or may not be communicatively coupled to MR scanner 302. For example, MR data acquired by MR scanner 302 may be transferred to computing device 304 via flash memory, compact disc (CD), or other storage device. When computing device 304 is communicatively coupled to MR scanner 302, MR data acquired by MR scanner 302 is transmitted to computing device 304 via any communication link between MR scanner 302 and computing device 304. may be transferred to device 304.

いくつかの実装態様では、コンピューティングデバイス304を、MRスキャナ302内に統合することができる。例えば、プロセッサ306、メモリ308、及び/又はディスプレイデバイス310を、MRスキャナ302内に統合することができる。そのような実装態様では、MRスキャナ302は、MRデータを取得し、方法100及び/又は方法200を実施することができる。 In some implementations, computing device 304 can be integrated within MR scanner 302. For example, processor 306, memory 308, and/or display device 310 may be integrated within MR scanner 302. In such implementations, MR scanner 302 can acquire MR data and perform method 100 and/or method 200.

まとめると、SN、RN、及びSTNの各々について、テンプレート空間において最初に手動で境界を描画することができ、システム300又はコンピューティングデバイス304は、DPAをランして、境界を微調整することができる。システム300又はコンピューティングデバイス304は、これらの境界を元の空間にマッピングし、DPAを再度ランして、最終的な境界を提供し、これを完全に自動化されたプロセスにすることができる。手動図面が作成された後、システム300又はコンピューティングデバイス304は、最終的な境界判定を完全に自動化するDPAをランすることができる。最終的な境界を使用して、システム300又はコンピューティングデバイス304は、体積、信号強度、感受性、及び/又は重複分画を計算することができる。 In summary, for each of the SN, RN, and STN, boundaries can be initially drawn manually in template space, and system 300 or computing device 304 can run a DPA to fine-tune the boundaries. can. System 300 or computing device 304 can map these boundaries back to the original space and run the DPA again to provide the final boundaries, making this a fully automated process. After the manual drawing is created, the system 300 or computing device 304 can run a DPA that fully automates the final boundary determination. Using the final boundaries, system 300 or computing device 304 can calculate volume, signal strength, sensitivity, and/or overlapping fraction.

システム300又はコンピューティングデバイス304は、それぞれ、MTCデータ及びQSMデータから2つのROIを重ね合わせることによって、NM複合体体積(SNpcとVTAとを加えたもの)と、SN体積(SNpc及びSNpr)を含有する鉄と、の間の重複を計算することができる。システム300又はコンピューティングデバイス304は、以下に示されるように、基本的にSN体積全体に対するSNpc分画の尺度である全体的な重複分画(OOF)尺度を作成するSN体積を含有する鉄による重複を正規化することができる。
The system 300 or computing device 304 calculates the NM complex volume (SNpc plus VTA) and the SN volume (SNpc and SNpr) by overlaying two ROIs from the MTC data and QSM data, respectively. The overlap between the iron content and the iron content can be calculated. The system 300 or computing device 304 uses the iron-containing SN volume to create an overall overlapping fraction (OOF) measure, which is essentially a measure of the SNpc fraction over the entire SN volume, as shown below. Duplicates can be normalized.

上記の図1に関して記載した最終的な解剖学テンプレートを生成するプロセスを、様々な対照被験者のMRデータを使用して評価した。評価は、関心の解剖学的構造の手動で描画された境界に対する、最終的な解剖学テンプレートを生成するプロセスの性能の比較に基づいた。 The process of generating the final anatomical template described with respect to Figure 1 above was evaluated using MR data from various control subjects. The evaluation was based on a comparison of the performance of the process to generate the final anatomical template against manually drawn boundaries of the anatomical structure of interest.

合計87個の健常対照(HC)をスキャンした。SN、STN、及びRNを、全87個の症例について手動でトレースした。これらのうち、30人(試験データセット:17人の男性、13人の女性を含む、年齢範囲66±7.2歳)を、上述したテンプレートアプローチの初期訓練に使用した。アルゴリズムの全ての態様が整うと、次いで、次の57個の症例で方法を検証した(検証データセット:17人の男性、40人の女性を含む、年齢範囲61.9±5.0歳)。解剖学テンプレート生成プロセスの性能を評価するために、2つの尺度を使用した。これらは、手動セグメント化方法及びテンプレートセグメント化方法と関連付けられた構造間の空間的重複と、テンプレート体積を手動セグメント化の体積で除算したものからの構造の体積比(VR)と、を示すダイス類似度係数である。 A total of 87 healthy controls (HC) were scanned. SN, STN, and RN were manually traced for all 87 cases. Of these, 30 individuals (test dataset: including 17 males, 13 females, age range 66±7.2 years) were used for initial training of the template approach described above. Once all aspects of the algorithm were in place, we then validated the method on the following 57 cases (validation dataset: including 17 males and 40 females, age range 61.9±5.0 years). . Two measures were used to evaluate the performance of the anatomical template generation process. These are dice showing the spatial overlap between the structures associated with the manual and template segmentation methods and the volume ratio (VR) of the structures from the template volume divided by the volume of the manual segmentation. It is a similarity coefficient.

最後に、全てのデータを組み合わせて、構造体積、NM及び鉄の含有量、並びにSN領域とNM領域との間の重複、に関する定量的情報を生成した。総鉄含有量を、体積と、構造が描画された全てのスライスにわたる構造の平均感受性と、の積を総和することによって計算した。同様に、総NM含有量を、対応するスライスにわたるNM体積とNMコントラストとの積の総和から結果として得た。 Finally, all data were combined to generate quantitative information on structural volume, NM and iron content, and overlap between SN and NM regions. Total iron content was calculated by summing the product of the volume and the average sensitivity of the structure over all slices in which the structure was drawn. Similarly, total NM content was resulting from the summation of the product of NM volume and NM contrast over the corresponding slice.

図4を参照すると、NM-MRIテンプレート空間におけるNMの視点と、QSMテンプレート空間におけるSN、RN、及びSTNの視点と、を示すMR画像が示されている。具体的には、画像(a)~(c)は、検証データセットを使用した、NM-MRIテンプレートにおけるNM402の様々な視点を例示している。NM402の境界は、手動で描画されている。画像(d)~(f)は、SN404、RN406、及びSTN408の視点を例示している。図4の画像(d)~(f)におけるSN404、RN406、及びSTN408の境界は、手動で描画された。 Referring to FIG. 4, an MR image is shown showing the NM viewpoint in the NM-MRI template space and the SN, RN, and STN viewpoints in the QSM template space. Specifically, images (a)-(c) illustrate various views of the NM 402 in the NM-MRI template using the validation dataset. The boundaries of NM402 are drawn manually. Images (d)-(f) illustrate the viewpoints of SN 404, RN 406, and STN 408. The boundaries of SN 404, RN 406, and STN 408 in images (d)-(f) of Figure 4 were drawn manually.

図5を参照すると、テンプレート空間から元の空間へNM境界をマッピングするための様々なステップを例示する画像が示されている。具体的には、0.167mmの等方性テンプレート空間における12番目のスライスごとにとられた16個のスライスからの境界が、元の2mmの厚さの中脳スライス上に重ねられ、NMデータのために示されている。中脳はこれらの4つのスライス上にのみ見られることから、境界は、これらのスライスの4つ上にのみ現れている。図5における画像の各列は、別個のスライスを表す。行Aとして示される最上行の画像は、構築されたニューロメラニンテンプレートの様々なスライスの画像を示す。行Bとして示される第2行(上から)は、行Aと同じ画像を示すが、ニューロメラニンDPA境界502を有する。行Cとして示される第3行は、元の画像504上に変換された境界502を表す重ね合わせられたテンプレート境界504を示す。行Dとして示される最終行は、DPAを使用して、重ね合わされたテンプレート境界504を微調整することによって得られた、NMの最終境界506を有する被験者の中脳画像を示す。 Referring to FIG. 5, images are shown illustrating various steps for mapping NM boundaries from template space to original space. Specifically, boundaries from 16 slices taken every 12th slice in 0.167 mm isotropic template space are superimposed on the original 2 mm thick midbrain slice and the NM data shown for. Since the midbrain is only visible on these four slices, the border appears only on four of these slices. Each column of images in FIG. 5 represents a separate slice. The top row images, designated as row A, show images of various slices of the constructed neuromelanin template. The second row (from the top), designated as row B, shows the same image as row A, but with a neuromelanin DPA border 502. The third row, designated as row C, shows a superimposed template border 504 representing the transformed border 502 on the original image 504. The final row, designated as row D, shows the subject's midbrain image with the final boundary 506 of the NM obtained by fine-tuning the superimposed template boundary 504 using DPA.

図6を参照すると、QSMデータについての、テンプレート空間から元の画像空間へのSN、RN、及びSTNの境界をマッピングするための様々なステップを例示する画像を示す、が示されている。各列は、異なるスライスを表す。行Aとして示される第1(最上)行は、構築されたQSMテンプレートの様々なスライスを示す画像を示す。行Bとして示される第2行は、SN602、RN604、及びSTN606についてのQSM DPA境界を有する同じ画像を示す。行Cとして示される第3行は、SN602、RN604、及びSTN606についての元の空間に変換された境界を示す。行Dとして示される最終行は、行Cにおける境界にDPAを適用した後に得られたSN602、RN604、及びSTN606の最終的な境界を有する被験者の様々な中脳スライスを示す画像を示す。 Referring to FIG. 6, which shows images illustrating various steps for mapping the SN, RN, and STN boundaries from template space to the original image space for QSM data, is shown. Each column represents a different slice. The first (top) row, denoted as row A, shows images showing various slices of the constructed QSM template. The second row, denoted as row B, shows the same image with QSM DPA boundaries for SN 602, RN 604, and STN 606. The third row, denoted as row C, shows the boundaries transformed to the original space for SN 602, RN 604, and STN 606. The final row, denoted as row D, shows images showing various midbrain slices of a subject with the final boundaries of SN 602, RN 604, and STN 606 obtained after applying DPA to the boundaries in row C.

テンプレートの初期トレーニングに関して、MTCデータ及びQSMデータについて30個の症例を処理した。テンプレート自動MTCバックグラウンド強度の完全性は、一方から他方に関連する傾きが0.99であり、かつR2が0.53、p値が0.001未満であるという事実によって実証されている。バックグラウンド値は、NM及び鉄の含有量信号を適正に閾値化するために重要である。 For initial template training, 30 cases were processed for MTC and QSM data. The integrity of the template automated MTC background intensity is demonstrated by the fact that the slope related from one to the other is 0.99, and the R 2 is 0.53 and the p-value is less than 0.001. The background value is important for properly thresholding the NM and iron content signals.

ダイス類似度係数及び体積比(VR)の測定を、MTC画像及びQSM画像の両方について異なる閾値に対して行ったが、VRに対してプロットされたNM及びSNダイス係数と関連付けられたデータが、それぞれ、図7A~7B及び図8A~8Bに示されている。図7A及び7Bを参照すると、様々なシナリオに基づいて、ニューロメラニン(NM)のVR値に対してプロットされたダイス類似度係数のプロットが示されている。図7A及び7Bの両方で、プロットAは、閾値が適用されないシナリオに対応し、プロットBは、1000を超えるNMコントラストの閾値に対応し、プロットCは、1250を超えるNMコントラストの閾値に対応し、プロットDは、1500を超えるNMコントラストの閾値に対応する。図7Aにおけるプロットは、30個の訓練症例についてのデータを使用して生成されている一方、図7Bのプロットは、57個の検証症例についてのデータを使用して生成されている。テンプレートデータ及び手動で描画されたデータと関連付けられた平均ダイス、体積比、及び体積損失が、各閾値について引用されている。1000単位の閾値は、体積損失を最小限に保ち、優れた結果を生じさせる。 Measurements of Dice similarity coefficient and volume ratio (VR) were performed for different thresholds for both MTC and QSM images, but the data associated with NM and SN Dice coefficients plotted against VR were 7A-7B and FIGS. 8A-8B, respectively. Referring to FIGS. 7A and 7B, plots of Dice similarity coefficient plotted against VR values of neuromelanin (NM) are shown based on various scenarios. In both Figures 7A and 7B, plot A corresponds to a scenario in which no threshold is applied, plot B corresponds to a threshold of NM contrast greater than 1000, and plot C corresponds to a threshold of NM contrast greater than 1250. , plot D corresponds to a threshold of NM contrast greater than 1500. The plot in FIG. 7A was generated using data for 30 training cases, while the plot in FIG. 7B was generated using data for 57 validation cases. The average dice, volume ratio, and volume loss associated with template data and manually drawn data are quoted for each threshold. A threshold of 1000 units keeps volume loss to a minimum and produces excellent results.

図8A及び8Bを参照すると、様々なシナリオに基づいて、SNのVR値に対してプロットされたダイス類似度係数のプロットが示されている。図8A及び8Bの両方で、プロットAは、適用されない閾値のシナリオに対応し、プロットBは、50ppbを超える感受性値の閾値に対応し、プロットCは、75ppbを超える感受性値の閾値に対応し、プロットDは、100ppbを超える感受性値の閾値に対応する。図8Aにおけるプロットは、30個の訓練症例についてのデータを使用して生成されている一方、図8Bのプロットは、57個の検証症例についてのデータを使用して生成されている。テンプレートデータ及び手動で描画されたデータと関連付けられた平均ダイス、体積比、及び体積損失が、各閾値について引用されている。50ppbの閾値は、SN体積において最小限の損失を生じさせる。 8A and 8B, plots of Dice similarity coefficient plotted against SN VR values based on various scenarios are shown. In both Figs. 8A and 8B, plot A corresponds to the scenario of no threshold applied, plot B corresponds to a susceptibility value threshold of more than 50 ppb, plot C corresponds to a susceptibility value threshold of more than 75 ppb, and plot D corresponds to a susceptibility value threshold of more than 100 ppb. The plot in Fig. 8A was generated using data for 30 training cases, while the plot in Fig. 8B was generated using data for 57 validation cases. The average Dice, volume ratio, and volume loss associated with the template data and the manually drawn data are quoted for each threshold. A threshold of 50 ppb produces the least loss in SN volume.

閾値が高いほど、分布は、より密になり、理論的には最終的に両方の軸上で単一のものに近づく。しかしながら、より高い閾値はまた、体積のより高い損失を引き起こす。したがって、十分なダイスと、体積損失を伴う体積比と、の間にトレードオフがなければならない。1000の閾値を用いるNMコントラストについて、全ての症例についてのテンプレートデータの平均体積損失は、10%未満であり、それぞれ0.90及び0.95の平均ダイス及びVR値を生じさせる。1250などのより高い閾値は、10%をわずかに超える平均体積損失を生じさせ(平均ダイス=0.92、平均VR=0.96)、1500を超えるNMコントラストを示すデータは、より低い閾値よりも相対的に高いダイス及びVR(それぞれ0.94及び0.98)で、20%の平均損失を生じさせた。1000の閾値は、体積損失を10%未満に保ちながら、許容可能なダイス及びVR値をもたらすように見える。同様に、SNについて図8A~8Bに示されるように、50ppbの平均感受性閾値は、わずか10%未満の平均体積損失を生じさせた一方、平均ダイス及びVR値は、それぞれ0.88及び0.94であった。 The higher the threshold, the denser the distribution becomes, theoretically eventually approaching a single one on both axes. However, higher thresholds also cause higher losses in volume. Therefore, there must be a trade-off between sufficient dice and volume ratio with volume loss. For NM contrast using a threshold of 1000, the average volume loss of template data for all cases is less than 10%, resulting in average DICE and VR values of 0.90 and 0.95, respectively. Higher thresholds, such as 1250, result in an average volume loss of just over 10% (average Dice = 0.92, average VR = 0.96), and data showing NM contrast above 1500 are lower than lower thresholds. also produced an average loss of 20% with relatively high die and VR (0.94 and 0.98, respectively). A threshold of 1000 appears to yield acceptable dice and VR values while keeping volume loss below 10%. Similarly, as shown in Figures 8A-8B for SN, the average susceptibility threshold of 50 ppb resulted in an average volume loss of only less than 10%, while the average Dice and VR values were 0.88 and 0.8%, respectively. It was 94.

図9は、様々なシナリオに基づいて、赤核(RN)のVR値に対してプロットされたダイス類似度係数のプロットを示す。プロットA(左列)は、閾値が適用されないシナリオに対応し、プロットB(右列)は、50ppbの閾値が適用されるシナリオに対応する。上行のプロットは、30個の訓練症例のデータセットを使用して生成されている一方、下行のプロットは、57個の検証症例のデータセットを使用して生成されている。選択された閾値のためのテンプレートデータ及び手動で描画されたデータと関連付けられた平均ダイス、体積比、及び体積損失が、各プロット内で引用されている。50ppbの閾値は、体積損失を大体10%に制限する。 FIG. 9 shows a plot of the dice similarity coefficient plotted against the VR value of the red nucleus (RN) based on various scenarios. Plot A (left column) corresponds to a scenario in which no threshold is applied, and plot B (right column) corresponds to a scenario in which a threshold of 50 ppb is applied. The top row of plots has been generated using a dataset of 30 training cases, while the bottom row of plots has been generated using a dataset of 57 validation cases. The average die, volume ratio, and volume loss associated with template data and manually drawn data for the selected threshold are quoted within each plot. A threshold of 50 ppb limits volume loss to approximately 10%.

図10は、様々なシナリオに基づいて、視床下核(STN)のVR値に対してプロットされたダイス類似度係数のプロットを示す。プロットA(左列における)は、閾値が適用されないシナリオを表す一方、プロットB(右列)は、50ppbの閾値のシナリオを表す。上行のプロットは、30個の訓練症例のデータセットを使用して生成されている一方、下行のプロットは、57個の検証症例のデータセットを使用して生成されている。選択された閾値のためのテンプレートデータ及び手動で描画されたデータと関連付けられた平均ダイス、体積比、及び体積損失が、各プロット内で引用されている。50ppbの閾値は、体積損失を約10%に保つ。 Figure 10 shows plots of Dice similarity coefficients plotted against VR values for the subthalamic nucleus (STN) under various scenarios. Plot A (in the left column) represents the scenario where no threshold is applied, while plot B (right column) represents the 50 ppb threshold scenario. The top row of plots was generated using a data set of 30 training cases, while the bottom row of plots was generated using a data set of 57 validation cases. The average Dice, volume ratio, and volume loss associated with the template data and the manually drawn data for the selected threshold are quoted within each plot. The 50 ppb threshold keeps the volume loss at approximately 10%.

図9及び10に関して、QSMデータに任意の閾値を適用する前に、平均ダイス及び体積比は、RNについて0.93及び1.06であり、STNについて0.76及び0.95であった。しかしながら、QSMデータに50ppbの閾値を適用することは、RNについて0.95及び1.04の、STNについて0.83及び0.98の平均ダイス及びVRを生じさせる。1よりも大きい平均VRは、完全に自動化されたテンプレート/DPAアプローチによって見出された構造のほとんどが、手動/DPAアプローチでの構造よりも大きくなる傾向があることを示している。 9 and 10, before applying any threshold to the QSM data, the average dice and volume ratios were 0.93 and 1.06 for RN and 0.76 and 0.95 for STN. However, applying a 50 ppb threshold to the QSM data yields average DICE and VR of 0.95 and 1.04 for RN and 0.83 and 0.98 for STN. An average VR greater than 1 indicates that most of the structures found by the fully automated template/DPA approach tend to be larger than those with the manual/DPA approach.

図11を参照すると、手動セグメント化及びテンプレートセグメント化から結果として得られるSN、RN、及びSTNの鉄含有量間の相関を例示するプロットが示されている。30個の訓練症例についての手動セグメント化及びテンプレートセグメント化から結果として得られるSN、RN、及びSTNの鉄含有量間の相関関係は、上側のプロットに示されている一方、57個の検証症例についての手動セグメント化及びテンプレートセグメント化から結果として得られるSN、RN、及びSTNの鉄含有量間の相関関係は、下側のプロットに示されている。SN、RN、及びSTNと関連付けられたROI、並びに50ppbの閾値を使用して、鉄含有量についての手動図面に対する、テンプレートの最終的な結果が、様々なプロットに示されている。SN、RN、及びSTNの構造の各々について、傾き及びR2が、図11のプロットの各々に示されている。p値は、SN及びRNについて0.001未満であり、STNについて0.006に等しい。 Referring to FIG. 11, a plot illustrating the correlation between iron content of SN, RN, and STN resulting from manual and template segmentation is shown. The correlation between iron content of SN, RN, and STN resulting from manual segmentation and template segmentation for 30 training cases is shown in the upper plot, while for 57 validation cases. The correlation between the iron content of SN, RN, and STN resulting from manual and template segmentation for is shown in the lower plot. The final results of the template are shown in various plots for ROIs associated with SN, RN, and STN, and manual drawings for iron content using a threshold of 50 ppb. For each of the SN, RN, and STN structures, the slope and R2 are shown in each of the plots in FIG. 11. The p-values are less than 0.001 for SN and RN and equal to 0.006 for STN.

テンプレートの検証に関して、検証データセットは、QSMデータ及びMTCデータの処理に使用された57個の症例を含んでいた。NM及びSNの両方のVR値に対して、ダイス類似度係数をプロットしたが、これらの結果は、それぞれ図7B及び8Bに示されている。1000の閾値を用いるNMコントラストについて、それぞれ、全ての症例についてのテンプレートデータの平均体積損失は、約5%であったが、0.88及び1.06の平均ダイス及びVR値を生じさせる。同様に、SNの平均感受性について、それぞれ、50ppbの閾値は、ほぼ5%の平均体積損失を生じさせた一方、平均ダイス及びVR値は、0.89及び0.97であった。先のデータセットと同様に、NMコントラストについての1000の閾値、及びSNの平均感受性についての50ppbの閾値は、57個の症例にわたる平均ダイス、VR、及び体積損失に関して十分な結果を生じさせた。 Regarding template validation, the validation dataset included 57 cases that were used to process the QSM and MTC data. Dice similarity coefficients were plotted against both NM and SN VR values, and these results are shown in Figures 7B and 8B, respectively. For NM contrast using a threshold of 1000, the average volume loss of template data for all cases was approximately 5%, yielding average DICE and VR values of 0.88 and 1.06, respectively. Similarly, for the average susceptibility of SN, a threshold of 50 ppb produced an average volume loss of approximately 5%, while the average DICE and VR values were 0.89 and 0.97, respectively. Similar to the previous data set, a threshold of 1000 for NM contrast and a threshold of 50 ppb for average sensitivity of SN produced satisfactory results in terms of average DICE, VR, and volume loss across 57 cases.

RN及びSTNについてのVRに対するダイス類似度係数が、それぞれ図9及び図10に示されている。QSMデータに任意の閾値を適用する前に、それぞれ、RN及びSTNについての平均ダイス値及びVR値は、0.92及び1.05、並びに0.74及び0.86であった。先のデータセットからの結果と同様に、閾値を適用することは、これらの値を改善した。QSMデータに対して50ppbの閾値を使用することは、RN及びSTNについて、それぞれ0.95及び1.03、並びに0.81及び0.90の平均ダイス及びVR、並びに両方の構造について、約12%のテンプレート平均体積損失を生じさせた。 Dice similarity coefficients for VR for RN and STN are shown in FIGS. 9 and 10, respectively. Before applying any threshold to the QSM data, the average DICE and VR values for RN and STN were 0.92 and 1.05, and 0.74 and 0.86, respectively. Similar to the results from the previous dataset, applying a threshold improved these values. Using a 50 ppb threshold for the QSM data results in an average Dice and VR of 0.95 and 1.03, and 0.81 and 0.90 for RN and STN, respectively, and approximately 12 for both structures. % template average volume loss.

図11は、テンプレートデータ及び手動データについてのSN、RN、及びSTNの鉄含有量間の相関関係を示す。各構造について、対応する傾き及びR2が図10に示されている。p値は、SN及びRNについて0.001未満であり、STNについて0.008に等しい。以下の表1は、各構造についての推定されるテンプレート体積、VR尺度、及びダイス類似度係数と関連付けられた結果をまとめたものである。第1及び第2のデータセット並びにマージされたデータの平均値及び標準偏差値が示されている。

Figure 2024513845000003

表1.構造ごとの体積推定値、ダイス類似度係数、及び体積比(VR)の平均値及び標準偏差(SD)値。 FIG. 11 shows the correlation between iron content of SN, RN, and STN for template data and manual data. For each structure, the corresponding slope and R 2 are shown in FIG. The p-values are less than 0.001 for SN and RN and equal to 0.008 for STN. Table 1 below summarizes the results associated with the estimated template volume, VR measure, and Dice similarity coefficient for each structure. The mean and standard deviation values of the first and second data sets and the merged data are shown.
Figure 2024513845000003

Table 1. Mean and standard deviation (SD) values of volume estimates, dice similarity coefficients, and volume ratios (VR) for each structure.

図4~12に関して記載された研究では、単一のシーケンス(5分未満の)から導出されたNM画像及びQSM画像を、非テンプレートベースの被験者についてのROIを手動で描画する必要を伴うことなく、元の空間におけるSN、STN、及びRNの自動セグメント化に使用した。テンプレート空間と、テンプレート空間からの戻り変換後の元の画像と、の両方における境界検出のためのDPAと組み合わせたマルチコントラストアトラスが、記載及び検証される。ダイス値及び体積比の両方が、自動テンプレートアプローチと手動描画との間の体積及び鉄含有量の尺度について優れた一致を示した。 The studies described with respect to Figures 4-12 used NM and QSM images derived from a single sequence (less than 5 minutes) without the need to manually draw ROIs for non-template-based subjects. , was used for automatic segmentation of SN, STN, and RN in the original space. A multi-contrast atlas combined with DPA for boundary detection both in template space and the original image after transformation back from template space is described and verified. Both Dice values and volume ratios showed excellent agreement for volume and iron content measures between the automated template approach and manual drawing.

既存のテンプレートのほとんどが、NM、SN、STN、及びRNを含まず、この作業で提示されているほどの分解能を含んでいない。例えば、MNIテンプレートは1mm等方性である一方、本明細書に記載のアプローチは、補間された0.67mmの平面内等方性データを使用し、更にそれを3Dでの0.167mmの等方性分解能に補間した。実際には、ANT又はSpinITKのいずれかを使用して、0.67mmの等方性分解能を有する全脳大域変形可能位置合わせを使用すると、被験者全体で中脳構造の形状に一貫してうまくマッチし得る形態変換を得ることができないことが分かった。したがって、この問題を解決し、かつ大幅に改善された結果につなげるために、局所位置合わせ(本明細書では局所変換とも称する)ステップを追加した。この局所変換アプローチから、鉄及びニューロメラニンの両方のテンプレートを、単一の多重エコーシーケンスから作成した。 Most of the existing templates do not include the NM, SN, STN, and RN and do not include the resolution presented in this work. For example, the MNI template is 1 mm isotropic, while the approach described herein uses 0.67 mm of in-plane isotropic data that is interpolated and then interpolated to 0.167 mm isotropic resolution in 3D. In practice, we found that using whole-brain global deformable registration with 0.67 mm isotropic resolution using either ANT or SpinITK, we were unable to obtain a morphological transformation that could consistently and well match the shape of midbrain structures across subjects. Therefore, to solve this problem and lead to significantly improved results, we added a local registration (also referred to as local transformation here) step. From this local transformation approach, both iron and neuromelanin templates were created from a single multi-echo sequence.

以前の研究は、T1及び/又はT2加重シーケンスに基づく構造MRIアトラスを使用して、SNをセグメント化しようと試みた。しかしながら、SNは、これらの画像のコントラストが低い中脳における小さな構造であり、SN境界を正確に定義することを困難にする。この制限を克服するために、いくつかの他の研究は、NM-MRI又はQSMのいずれかを使用してSNアトラスを得ようとした。SNの自動セグメント化のためにNM増強された脳画像から構成された動的アトラスを使用することによって、一グループが、0.75未満のダイス値を示した。その者らの研究に適用されたNM感受性T1加重高速スピンエコーシーケンスは、SNを明確に描写するのに最適ではない。NMのコントラストは、MT-MRI取得シーケンスを使用することによって大幅に改善され得る。発明者らの知る限り、NM-MRI及びQSMの両方を使用してSN、SNpr、及びSNpcを自動セグメント化しようとした研究はない。 Previous studies have attempted to segment the SN using structural MRI atlases based on T1 and/or T2 weighted sequences. However, the SN is a small structure in the midbrain with low contrast in these images, making it difficult to accurately define the SN boundary. To overcome this limitation, several other studies have attempted to obtain SN atlases using either NM-MRI or QSM. By using a dynamic atlas constructed from NM-enhanced brain images for automatic segmentation of the SN, one group showed a DICE value of less than 0.75. The NM-sensitive T1-weighted fast spin-echo sequence applied in their study is not optimal for clearly delineating the SN. NM contrast can be significantly improved by using MT-MRI acquisition sequences. To the inventors' knowledge, no studies have attempted to automatically segment SN, SNpr, and SNpc using both NM-MRI and QSM.

以前の研究は、より若い(5歳超、かつ18歳未満)又はより高齢の(60歳超)被験者のいずれかを含むことによって、SNをセグメント化した。若い健常な被験者のみに基づくアトラスの使用は、中脳の構造に影響を及ぼす神経変性疾患を有する患者を研究するために適切ではないことがある。これらの被験者間及び被験者内の年齢関連及び疾患関連の形態測定変化は、重要であり、SNを局在化するときのテンプレートアプローチの使用の成功に影響を及ぼし得る。所与の研究のための最も適切なアトラスは、ネイティブ被験者空間からアトラス空間への大域的又は局所的な歪みを最小量にすることを必要とするものであり、したがって、高齢のHC被験者(平均年齢:63.4歳)を使用して、神経変性疾患を有する患者を研究するためのアトラスを作成した。被験者間の変動性によって引き起こされる偏倚を軽減するために、いくつかの研究は、確率的アトラスを使用し、NMS-MRIシーケンスに基づいてSNpcの確率的アトラスを構築して、PD患者における拡散MRIを使用してSNpcの微細構造異常を調査しようとした。その者らは、T1画像及び27HCのSNpcマスクをMNI空間上に位置合わせするための対称微分同相位置合わせを適用し、アトラスを50%の確率で閾値化した。しかしながら、アトラス対ヒト評価者についての平均ダイス係数は、0.61未満であった。閾値は、NMの描写における劇的な変化につながる可能性があり、それゆえに、アトラスの再現性を低下させる。 Previous studies have segmented the SN by including either younger (>5 years and <18 years) or older (>60 years) subjects. The use of atlases based only on young healthy subjects may not be appropriate for studying patients with neurodegenerative diseases affecting midbrain structures. These inter- and intra-subject age-related and disease-related morphometric changes are important and can influence the success of using template approaches when localizing SNs. The most appropriate atlas for a given study is one that requires the least amount of global or local distortion from native subject space to atlas space, and therefore (age: 63.4 years) was used to create an atlas to study patients with neurodegenerative diseases. To reduce the bias caused by intersubject variability, some studies have used probabilistic atlases and constructed probabilistic atlases of SNpc based on NMS-MRI sequences to improve diffusion MRI in PD patients. We attempted to investigate ultrastructural abnormalities in SNpc using this method. They applied symmetric diffeomorphic registration to align T1 images and 27HC SNpc masks onto MNI space and thresholded the atlas with a probability of 50%. However, the average Dice coefficient for Atlas versus human raters was less than 0.61. Thresholding can lead to dramatic changes in the depiction of the NM, thus reducing the reproducibility of the atlas.

検証段階に関して、第2のデータセットは、ダイス類似度係数及びVR値が構造のための第1のデータセットからのものに非常に近いことを示し、これにより、本明細書に提案の自動テンプレート処理アプローチによって生成される結果の一貫性が確認される。また、これらの値が単一のものに非常に近いという事実は、このアプローチの優れた性能を示す。 Regarding the validation stage, the second data set shows that the dice similarity coefficient and VR values are very close to those from the first data set for the structure, which allows the automatic template proposed herein to Consistency of results produced by the processing approach is verified. Also, the fact that these values are very close to unity indicates the superior performance of this approach.

本明細書に記載のアプローチでは、NMアトラスの妥当性を更に改善するために、SNpcの確率的アトラスを作成した後にDPA(エッジ検出アルゴリズムを実装する)が採用される。 In the approach described herein, DPA (implementing an edge detection algorithm) is employed after creating a probabilistic atlas of SNpc to further improve the validity of the NM atlas.

結論として、中脳(又は一般に解剖学的構造)における深部灰白質の完全自動セグメント化のための本明細書に記載の新しいアプローチは、テンプレートアプローチをガイドとして使用するが、元のデータを動的プログラミングアルゴリズムとともに使用して、境界を微調整する。このアプローチを用いると、SNにおけるニューロメラニンと、SN、STN、及びRNの全てについての体積及び鉄含有量と、を定量化することが可能である。このアプローチは、これらの構造の手動トレースを必要とせずに、多様な神経変性疾患についてのこれらのイメージングバイオマーカーの変化を研究することを可能にするはずである。 In conclusion, the new approach described herein for fully automatic segmentation of deep gray matter in the midbrain (or any anatomical structure in general) uses a template approach as a guide, but dynamically Use with programming algorithms to fine-tune boundaries. Using this approach, it is possible to quantify neuromelanin in the SN and the volume and iron content for all of the SN, STN, and RN. This approach should allow studying changes in these imaging biomarkers for diverse neurodegenerative diseases without the need for manual tracing of these structures.

ニューロメラニン(NM)バックグラウンド測定に関して、バックグラウンド値は、NM信号を適正に閾値化するために重要であることから、30個のMTC症例を処理して、ニューロメラニン(NM)バックグラウンド測定値を得た。図12を参照すると、30人の健常な対照(又は訓練被験者)についての手動及びテンプレートのニューロメラニン(NM)バックグラウンド測定値間の一致を示すプロットが示されている。具体的には、プロットは、手動図面に対するテンプレート自動MTCバックグラウンド強度尺度の完全性を例示している。マニュアル及びテンプレートのMTCバックグラウンド尺度間の一致は、0.99の傾斜、0.53のR2、及び0.001未満のp値を示す。 Regarding neuromelanin (NM) background measurement, since the background value is important for properly thresholding the NM signal, 30 MTC cases were processed to determine the neuromelanin (NM) background measurement. I got it. Referring to FIG. 12, a plot is shown showing the agreement between manual and template neuromelanin (NM) background measurements for 30 healthy controls (or training subjects). Specifically, the plot illustrates the completeness of the template automatic MTC background intensity measure against manual drawings. The agreement between the manual and template MTC background measures shows a slope of 0.99, an R 2 of 0.53, and a p-value of less than 0.001.

DPAに関して、関心の全ての構造の最終的なテンプレート境界を、テンプレート空間及び元の空間の両方における境界検出のための動的プログラミングアルゴリズム(DPA)を使用して判定することができる。DPAアルゴリズムの例示的な詳細なステップは、以下のとおりであり得る。
1.初期境界を、NM及びQSMの両方のテンプレートデータ上に描画することができる。
2.次いで、図13に示されるように、バックグラウンドをテンプレート画像に描画することができる。図13では、NM702及びバックグラウンド領域704の両方が示されている。
3.次いで、境界及びバックグラウンドを、図14に示されるように、元の空間に変換することができる。図14では、NM領域802及びバックグラウンド領域804は、テンプレート空間から元の空間への変換後に示されている。バックグラウンド値に1000を加えたものを使用することにより、DPA境界を精緻化してより速い収束を提供し、かつアルゴリズムが元の境界外に漏れることを防止するためにより小さくかつより安全な探索半径を使用することが容易になる。
4.バックグラウンド平均値+4σ(式中、σは、本研究において大体250単位であることが見出された関心のバックグラウンド領域の標準偏差である)を、MTCデータに対する閾値として使用して、この閾値よりも低い全ての点を除去して、NM精緻化された境界を判定することができる。QSMデータについて、SN、STN、及びRNの全てについてDPAがランされる前に、ゼロppb未満の感受性を有する画素を除去することができる。
5.3×3ガウスフィルタを使用して、初期境界を平滑化することができる。
6.次いで、細線化法を使用して、中心線を判定することができる。
7.DPA前の境界精緻化:構造の周りに強度のいくつかの変動があり得ることから、大域閾値は、MTCデータにおける構造全体に有効でないことがあろう。したがって、Otsuの方法[参考文献:1979 IEEE“A Threshold Selection Method from Gray-Level Histograms”,Nobuyuki Otsu]を、各単一の中心線点の周りの40×40画素の正方形のフィルタリングされた局所画像にあてがうことができ、Otsu閾値よりも低い全ての点を除去することができる。初期境界がOtsu閾値によって得られた境界の外側にある場合、境界を、残っている最も近い点(Otsu境界と称される)に修正することができる。このステップは、DPAの収束を高速化するのに役立つ。
8.DPAの実装:中心線に沿った各点について、DPAを、対応する検索ボックスで実行することができる。湾曲形状を可能にするために、中心線の中心を使用して、初期光線を判定することができる。次いで、初期境界と関連付けられた中心線に沿って1つの画素をシフトさせることによって、DPAを次のセットの光線に適用することができる。各DPA反復について、中心線を更新することができる。終点に達すると、これらの光線を180°掃引することができる。次いで、アルゴリズムは、中心線があと180°掃引して反対の終点に達するまで、中心線に沿って戻ることができる。最後に、中心点は、開始点に戻る中心線に沿って戻り、境界を閉じることができる。このプロセスを5回繰り返して、境界の内側及び外側の両方を探索して、最良の結果を得ることができる。NM、STN、及びSNについて、このステップの後に、内側探索のみを使用して更に5回の反復を続けることができる。
Regarding DPA, the final template boundaries of all structures of interest can be determined using a dynamic programming algorithm (DPA) for boundary detection in both template space and original space. Exemplary detailed steps of the DPA algorithm may be as follows.
1. Initial boundaries can be drawn on both NM and QSM template data.
2. A background can then be drawn onto the template image, as shown in FIG. 13. In FIG. 13, both NM 702 and background region 704 are shown.
3. The border and background can then be transformed back to the original space, as shown in FIG. 14. In FIG. 14, NM region 802 and background region 804 are shown after transformation from template space to original space. By using the background value plus 1000, we can refine the DPA bounds to provide faster convergence, and a smaller and safer search radius to prevent the algorithm from leaking outside the original bounds. becomes easier to use.
4. Using the background mean + 4σ (where σ is the standard deviation of the background region of interest, which was found to be approximately 250 units in this study) as the threshold for the MTC data, this threshold The NM-refined boundary can be determined by removing all points lower than . For QSM data, pixels with sensitivity less than zero ppb can be removed before DPA is run for all SN, STN, and RN.
A 5.3x3 Gaussian filter can be used to smooth the initial boundaries.
6. A thinning method can then be used to determine the centerline.
7. Boundary refinement before DPA: Global thresholds may not be valid for the entire structure in the MTC data since there may be some variation in intensity around the structure. Therefore, the method of Otsu [Reference: 1979 IEEE “A Threshold Selection Method from Gray-Level Histograms”, Nobuyuki Otsu] is applied to a filtered local image of a 40×40 pixel square around each single centerline point. can be applied and all points below the Otsu threshold can be removed. If the initial boundary is outside the boundary obtained by the Otsu threshold, the boundary can be modified to the nearest remaining point (referred to as the Otsu boundary). This step helps speed up the convergence of DPA.
8. Implementation of DPA: For each point along the centerline, DPA can be performed with the corresponding search box. To allow for curved shapes, the center of the centerline can be used to determine the initial ray. DPA can then be applied to the next set of rays by shifting one pixel along the centerline associated with the initial boundary. For each DPA iteration, the centerline can be updated. Once the end point is reached, these rays can be swept 180°. The algorithm can then move back along the centerline until it sweeps another 180° and reaches the opposite endpoint. Finally, the center point can return along the center line back to the starting point, closing the boundary. This process can be repeated five times, searching both inside and outside the boundaries to get the best results. For NM, STN, and SN, this step can be followed by 5 more iterations using only inner search.

探索半径は、拡大された空間の境界の内側及び外側の両方で4画素に制限されたが、このDPAで使用されるコスト関数は、関心の構造の隣接するオブジェクトへの漏れを回避する微分係数項及び曲率半径項を含む。境界外の点について、中心線から外向きに探索するときに、負の微分値をゼロに設定した。この制限は、境界が近くの明るいオブジェクト中に漏れるのを防止した。コスト関数は、以下で与えられ、
式中、
並びにr番目の点におけるm番目の光線に沿った勾配及び半径は、それぞれ、G(r,m)及びR(r,m)によって示される。項Gmaxは、画像の内部の最大の微分係数を表し、Ravgは、前の3つの半径にわたる平均半径である。定数αは、0と1との間の値に設定することができる、微分係数項及び半径項の相対的な重み付けを表す。関心の構造の形状が円に近いほど、より高いαを設定することができる。鋭いエッジがある場合、これらを、αの大きな選定によって平滑化することができる。0.05~0.15のαの値は全て、エッジを忠実に見出すことにおいて同様の役割を果たしたため、α=0.1の値を保存的であるように選定した。
Although the search radius was limited to 4 pixels both inside and outside the boundaries of the expanded space, the cost function used in this DPA was a derivative that avoided leakage of the structure of interest into neighboring objects. and radius of curvature term. For points outside the boundary, negative derivatives were set to zero when searching outward from the center line. This restriction prevented boundaries from leaking into nearby bright objects. The cost function is given below,
During the ceremony,
and the slope and radius along the mth ray at the rth point are denoted by G(r,m) and R(r,m), respectively. The term G max represents the maximum derivative inside the image and R avg is the average radius over the previous three radii. The constant α represents the relative weighting of the derivative and radius terms, which can be set to a value between 0 and 1. The closer the shape of the structure of interest is to a circle, the higher α can be set. If there are sharp edges, these can be smoothed by choosing a large α. Since all values of α between 0.05 and 0.15 played a similar role in finding edges faithfully, the value of α=0.1 was chosen to be conservative.

図15を参照すると、DPAのパラメータαの異なる値で再構成された境界を例示する画像が示されている。αの選定は、最終的なDPA境界に劇的に影響を及ぼし得る。左上の画像におけるNM境界は、α=0.05を使用して得られている。右上の画像では、NM境界は、α=0.10を使用して判定されている。左下の画像では、NM境界は、α=0.15を使用して得られている。右下の画像では、NM境界は、α=0.20を使用して得られている。αの値が小さいほど半径制約からの平滑化が小さくなることにつながる一方、αの値が大きいほど平滑化が大きくなることにつながることに留意されたい。αの値が高いほど、構造が丸くなり、かつより円に向かって縮小する傾向がある。低い値は、非常にジグザグのエッジを有する境界につながる。最後に、光線ごとに上述のコスト関数を最大化することによって、新しい境界についての候補点を選択することができる。 Referring to FIG. 15, images illustrating boundaries reconstructed with different values of the DPA parameter α are shown. The choice of α can dramatically affect the final DPA bound. The NM boundary in the top left image is obtained using α=0.05. In the top right image, the NM boundary has been determined using α=0.10. In the bottom left image, the NM boundary is obtained using α=0.15. In the bottom right image, the NM boundary is obtained using α=0.20. Note that smaller values of α lead to less smoothing from the radius constraints, while larger values of α lead to more smoothing. The higher the value of α, the rounder the structure and the more it tends to shrink toward a circle. Low values lead to boundaries with very zigzag edges. Finally, candidate points for the new boundary can be selected by maximizing the cost function described above for each ray.

種々の形状について、いくつかの例示的なシミュレーションが、図16~18に示されている。図16を参照すると、DPAを使用して、2つの異なる強度を有する矩形領域の境界を識別するためのシミュレーション結果が示されている。画像(a)は、2つの異なる強度を有する矩形領域を示す。画像(b)は、中央エリアの周りに境界が描画された矩形領域を示し、画像(c)は、5回反復してDPAを適用した後の見出された中心線及び更新された境界を更に示す。画像(d)は、第2の矩形境界内の中央領域と枠領域との信号強度の差に基づいて、7:1のコントラスト対ノイズ比(CNR)を有するノイズが追加されたことを除き、画像(b)と同様である。画像(e)は、1400画素の正しいエリアとマッチするDPAの5回の反復後に見出された最終的な境界を示す。 Some exemplary simulations are shown in FIGS. 16-18 for various geometries. Referring to FIG. 16, simulation results are shown for using DPA to identify the boundary of a rectangular region with two different intensities. Image (a) shows a rectangular area with two different intensities. Image (b) shows a rectangular region with a border drawn around the central area, and image (c) shows the found centerline and updated border after applying DPA for five iterations. Further shown. Image (d) except that noise was added with a contrast-to-noise ratio (CNR) of 7:1 based on the difference in signal strength between the central region and the frame region within the second rectangular boundary. It is similar to image (b). Image (e) shows the final boundary found after 5 iterations of DPA matching the correct area of 1400 pixels.

図16に対応するシミュレーションについて、中央領域を100単位に設定し、第2の境界内であるが第1の境界の外側の外枠領域を30単位に設定し、第2の境界の外側のバックグラウンドをゼロに設定した。ゼロの平均値及び10単位の標準偏差を有するガウスノイズを画像に追加した。鋭く定義された角及び1400画素を有する矩形の第1の例が、図16に示されている。ノイズの存在にもかかわらず、境界は依然として完全に見出された。 For the simulation corresponding to Figure 16, the central area is set to 100 units, the outer frame area within the second boundary but outside the first boundary is set to 30 units, and the back area outside the second boundary is set to 30 units. Ground was set to zero. Gaussian noise with a mean value of zero and a standard deviation of 10 units was added to the image. A first example of a rectangle with sharply defined corners and 1400 pixels is shown in FIG. Despite the presence of noise, the boundaries were still found perfectly.

図17は、DPAを使用して、2つの異なる強度を有する三日月形状領域の境界を識別するためのシミュレーション結果を示す。画像(a)は、2つの異なる強度を有する三日月形状領域を示し、画像(b)は、同じ領域が三日月形状領域の中心エリアの周りに描画された境界であったことを示す。画像(c)は、DPAの5回の反復後の対応する中心線及び更新された境界を有する三日月形状領域を示す。画像(d)及び(e)は、それぞれ、DPAの10回の反復及び15回の反復後の中心線及び境界の更新を示す。画像(f)は、適応的Otsu閾値アプローチを使用した場合の、わずか5回の反復後の中心線及び境界を示す。画像(g)は、CNRが7:1である、ノイズが追加された画像(c)と同様であり、画像(h)は、適応的Otsu閾値アプローチを使用する場合の、DPAのわずか5回の反復後の中心線及び境界を示す。 FIG. 17 shows simulation results for using DPA to identify the boundary of a crescent-shaped region with two different intensities. Image (a) shows a crescent-shaped region with two different intensities, and image (b) shows that the same region was a border drawn around the central area of the crescent-shaped region. Image (c) shows the crescent-shaped region with the corresponding centerline and updated boundaries after 5 iterations of DPA. Images (d) and (e) show centerline and border updates after 10 and 15 iterations of DPA, respectively. Image (f) shows the centerline and boundaries after only 5 iterations using the adaptive Otsu thresholding approach. Image (g) is similar to the noise-added image (c) with a CNR of 7:1 and image (h) with only 5 times of DPA when using the adaptive Otsu thresholding approach. shows the centerline and boundaries after the iterations of .

図17の三日月形状領域を選定して、湾曲したオブジェクトの境界を検出するより困難な症例を模倣した。図17は、異なる回数の反復をランした効果を示す。合計35回の反復をランした後の平均値(画像(f))は、1.5の標準偏差を有する990.5であることが分かった一方、10:1のSNRの存在下でOtsuアプローチを使用すると、平均値は984であり、標準偏差は2.0であった。 The crescent-shaped region in Figure 17 was chosen to mimic the more difficult case of detecting the boundaries of curved objects. Figure 17 shows the effect of running different numbers of iterations. The mean value (image (f)) after running a total of 35 iterations was found to be 990.5 with a standard deviation of 1.5, while the Otsu approach in the presence of an SNR of 10:1 Using , the mean value was 984 and the standard deviation was 2.0.

図18は、DPAを使用して、2つの異なる強度を有するカシュー形状領域の境界を識別するためのシミュレーション結果を示す。画像(a)は、2つの異なる強度を有するカシュー形状領域を示し、画像(b)は、中央エリアの周りに描画された初期境界を有するカシュー形状領域を示す。画像(c)は、適応的Otsu閾値アプローチを使用する場合の、DPAの5回の反復後に更新された対応する中心線及び境界を有するカシュー形状領域を示す。画像(d)は、画像(b)と同様であるが、ノイズが追加されており、CNRが7:1である。適応的Otsu閾値アプローチを使用し、かつノイズの存在下での場合の、DPAの5回の反復後の境界及び中心線の最終結果が、画像(e)に示されている。 FIG. 18 shows simulation results for using DPA to identify the boundaries of cashew-shaped regions with two different intensities. Image (a) shows a cashew-shaped region with two different intensities, and image (b) shows a cashew-shaped region with an initial border drawn around the central area. Image (c) shows the cashew-shaped region with the corresponding centerline and border updated after 5 iterations of DPA when using the adaptive Otsu threshold approach. Image (d) is similar to image (b), but with added noise and a CNR of 7:1. The final result of the boundary and centerline after 5 iterations of DPA using the adaptive Otsu thresholding approach and in the presence of noise is shown in image (e).

最後に、図18のカシュー形状領域を選定して、SNを模倣し、鋭いエッジが存在しない場合の方法を評価した。最初の35回の反復をランした後、平均値は1086.5であり、標準偏差=2.5であることが分かった。10:1のSNRの存在下でOtsuアプローチを使用し、かつあと30回の反復をランすると、平均値は1097であり、標準偏差が0.0であることが分かった。 Finally, we selected the cashew-shaped region in Figure 18 to mimic SN and evaluate the method in the absence of sharp edges. After running the first 35 iterations, the mean value was found to be 1086.5 and standard deviation = 2.5. Using the Otsu approach in the presence of a 10:1 SNR and running 30 more iterations, the mean value was found to be 1097 and the standard deviation to be 0.0.

当業者は、本開示に記載のプロセスを、プロセッサによって実行可能なコンピュータコード命令を使用して実装することができることを理解するはずである。コンピュータコード命令を、メモリなどの非一時的又は有形のコンピュータ可読媒体に記憶することができる。メモリは、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、キャッシュメモリ、ディスクメモリ、任意の他のメモリ、又は任意の他のコンピュータ可読媒体であり得る。本開示に記載のプロセスを、少なくとも1つのプロセッサ及び/又は実行可能なコード命令を記憶したメモリを含む、装置によって実装することができる。コード命令は、少なくとも1つのプロセッサによって実行されるときに、本開示に記載のプロセス又は動作のいずれかの実行を生じさせることができる。装置は、例えば、MRIスキャナ又はコンピューティングデバイスであり得る。 Those skilled in the art will appreciate that the processes described in this disclosure can be implemented using computer code instructions executable by a processor. Computer code instructions may be stored on non-transitory or tangible computer-readable media, such as memory. The memory may be random access memory (RAM), read only memory (ROM), cache memory, disk memory, any other memory, or any other computer readable medium. The processes described in this disclosure can be implemented by an apparatus that includes at least one processor and/or a memory storing executable code instructions. The code instructions, when executed by at least one processor, can cause performance of any of the processes or operations described in this disclosure. The apparatus may be, for example, an MRI scanner or a computing device.

Claims (20)

磁気共鳴イメージング(MRI)システムであって、
磁気共鳴(MR)データを取得するように構成されたMRIスキャナと、
少なくとも1つのプロセッサと、
メモリであって、前記メモリ上にコンピュータコード命令が記憶されたメモリと、を備え、前記コンピュータコード命令が、前記少なくとも1つのプロセッサによって実行されるときに、前記少なくとも1つのプロセッサに、
前記MRIスキャナを介して、複数の訓練被験者の訓練被験者ごとに、1つ以上の関心の解剖学的構造を例示するコントラストを伴う対応するMR画像を取得することと、
前記複数の訓練被験者のうちの第1の訓練被験者の第1のMRデータに基づいて、初期解剖学テンプレート画像を生成することであって、前記初期解剖学テンプレート画像が、テンプレート空間を定義する、生成することと、
前記第1の訓練被験者以外の前記複数の訓練被験者の訓練被験者ごとに、
前記訓練被験者の前記MR画像に大域変換を適用して、前記テンプレート空間において、前記訓練被験者のMRデータの第1の推定値を表す前記MR画像の第1のモーフィングバージョンを生成すること、及び
前記訓練被験者の前記MR画像の前記第1のモーフィングバージョンに局所変換を適用して、前記テンプレート空間において、前記訓練被験者の前記MRデータの第2の推定値を表す前記MR画像の第2のモーフィングバージョンを生成することと、
前記初期解剖学テンプレート画像を、前記第1の訓練被験者以外の前記複数の訓練被験者の前記MR画像の前記第2のモーフィングバージョンと平均して、最終的な解剖学テンプレート画像を生成することと、
前記最終的な解剖学テンプレートに、前記1つ以上の関心の解剖学的構造の前記境界を描写することと、
前記最終的な解剖学テンプレートを使用して、他の非訓練被験者についての前記1つ以上の関心の解剖学的構造の前記境界を識別することと、を行わせる、磁気共鳴イメージング(MRI)システム。
A magnetic resonance imaging (MRI) system, the system comprising:
an MRI scanner configured to acquire magnetic resonance (MR) data;
at least one processor;
a memory having computer code instructions stored thereon, the computer code instructions being executed by the at least one processor;
acquiring, via the MRI scanner, a corresponding MR image with contrast illustrating one or more anatomical structures of interest for each training subject of a plurality of training subjects;
generating an initial anatomical template image based on first MR data of a first training subject of the plurality of training subjects, the initial anatomical template image defining a template space; to generate;
For each training subject of the plurality of training subjects other than the first training subject,
applying a global transform to the MR image of the training subject to produce, in the template space, a first morphed version of the MR image representing a first estimate of MR data of the training subject; and applying a local transformation to the first morphed version of the MR image of the training subject to create a second morphed version of the MR image representing, in the template space, a second estimate of the MR data of the training subject; and
averaging the initial anatomical template image with the second morphed version of the MR images of the plurality of training subjects other than the first training subject to generate a final anatomical template image;
depicting the boundaries of the one or more anatomical structures of interest in the final anatomical template;
and identifying the boundaries of the one or more anatomical structures of interest for other non-training subjects using the final anatomical template. .
前記MR画像内の前記1つ以上の関心の解剖学的構造の前記境界を判定する際に、前記少なくとも1つのプロセッサが、
境界検出アルゴリズムを使用して、前記最終的な解剖学テンプレートにおいて、前記1つ以上の関心の解剖学的構造の前記境界を微調整するように構成されている、請求項1に記載のMRIシステム。
In determining the boundaries of the one or more anatomical structures of interest within the MR image, the at least one processor:
MRI system according to claim 1, configured to fine-tune the boundaries of the one or more anatomical structures of interest in the final anatomical template using a boundary detection algorithm. .
前記MR画像内の前記1つ以上の関心の解剖学的構造の前記境界を判定する際に、前記少なくとも1つのプロセッサが、
前記MRIスキャナを介して、前記1つ以上の関心の解剖学的構造を例示するコントラストを伴う非訓練被験者のMR画像を取得することと、
前記非訓練被験者のMR画像に前記大域変換を適用して、前記非訓練被験者のMR画像の第1のモーフィングバージョンを生成することと、
前記非訓練被験者のMR画像の前記第1のモーフィングバージョンに前記局所変換を適用して、前記非訓練被験者のMR画像の第2のモーフィングバージョンを生成することと、
前記1つ以上の関心の解剖学的構造の前記最終的な解剖学テンプレートから、前記非訓練被験者のMR画像の前記第2のモーフィングバージョン上に前記境界を投影して、前記非訓練被験者についての前記テンプレート空間内の前記1つ以上の関心の構造の前記境界の推定値を判定することと、
前記1つ以上の関心の構造の前記テンプレート空間内の前記境界の前記推定に逆変換を適用して、元の前記非訓練被験者のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界の第1の推定値を判定することと、を行うように構成されている、請求項1に記載のMRIシステム。
In determining the boundaries of the one or more anatomical structures of interest within the MR image, the at least one processor:
acquiring, via the MRI scanner, an MR image of the non-training subject with contrast illustrating the one or more anatomical structures of interest;
applying the global transform to an MR image of the non-training subject to generate a first morphed version of the MR image of the non-training subject;
applying the local transformation to the first morphed version of the MR image of the non-training subject to generate a second morphed version of the MR image of the non-training subject;
Projecting the boundaries from the final anatomical template of the one or more anatomical structures of interest onto the second morphed version of the MR image of the non-training subject to determining an estimate of the boundaries of the one or more structures of interest within the template space;
Applying an inverse transformation to the estimate of the boundaries in the template space of the one or more structures of interest to determine the shape of the one or more anatomical structures of interest in the original MR image of the non-training subject. 3. The MRI system of claim 1, configured to: determine a first estimate of the boundary.
前記少なくとも1つのプロセッサが、
境界検出アルゴリズムを使用して、前記非訓練被験者の元のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界の前記第1の推定値を微調整し、前記非訓練被験者の前記第2のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界の第2の推定値を生成するように構成されている、請求項3に記載のMRIシステム。
the at least one processor,
fine-tuning the first estimate of the boundaries of the one or more anatomical structures of interest in the original MR images of the non-training subject using a boundary detection algorithm; 4. The MRI system of claim 3, configured to generate a second estimate of the boundaries of the one or more anatomical structures of interest in the second MR image.
前記逆変換が、前記局所変換の逆と、続く前記大域変換の逆と、の連結を含む、請求項3に記載のMRIシステム。 4. The MRI system of claim 3, wherein the inverse transform includes a concatenation of the inverse of the local transform followed by the inverse of the global transform. 前記MR画像の前記第1のモーフィングバージョンに前記局所変換を適用することが、前記MR画像の前記第1のモーフィングバージョンのクロッピング領域に前記局所変換を適用することを含む、請求項1に記載のMRIシステム。 2. Applying the local transformation to the first morphed version of the MR image comprises applying the local transformation to a cropping region of the first morphed version of the MR image. MRI system. 前記対応するMR画像が、定量的感受性マップ(QSM)又はニューロメラニン画像を含む、請求項1に記載のMRIシステム。 MRI system according to claim 1, wherein the corresponding MR image comprises a quantitative susceptibility map (QSM) or a neuromelanin image. 前記少なくとも1つのプロセッサが、前記非訓練被験者の元のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界に基づいて、前記1つ以上の関心の解剖学的構造のうちの少なくとも1つの体積を判定するように構成されている、請求項3に記載のMRIシステム。 The at least one processor is configured to determine one of the one or more anatomical structures of interest based on the boundaries of the one or more anatomical structures of interest in the original MR image of the non-training subject. 4. The MRI system of claim 3, configured to determine at least one volume. 前記少なくとも1つのプロセッサが、前記非訓練被験者の元のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界に基づいて、前記1つ以上の関心の解剖学的構造のうちの少なくとも1つの平均値強度を判定するように構成されている、請求項3に記載のMRIシステム。 The at least one processor is configured to determine one of the one or more anatomical structures of interest based on the boundaries of the one or more anatomical structures of interest in the original MR image of the non-training subject. 4. The MRI system of claim 3, wherein the MRI system is configured to determine at least one average intensity. 前記少なくとも1つのプロセッサが、前記第2のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界に基づいて、前記1つ以上の関心の解剖学的構造のうちの少なくとも1つの合計信号を判定するように構成されている、請求項3に記載のMRIシステム。 The at least one processor is configured to detect at least one of the one or more anatomical structures of interest based on the boundaries of the one or more anatomical structures of interest in the second MR image. 4. The MRI system of claim 3, configured to determine a sum signal. 方法であって、
MRIスキャナを介して、複数の訓練被験者の訓練被験者ごとに、1つ以上の関心の解剖学的構造を例示するコントラストを伴う対応するMR画像を取得することと、
コンピューティングデバイスによって、前記複数の訓練被験者のうちの第1の訓練被験者の第1のMRデータに基づいて、初期解剖学テンプレート画像を生成することであって、前記初期解剖学テンプレート画像が、テンプレート空間を定義する、生成することと、
前記第1の訓練被験者以外の前記複数の訓練被験者の訓練被験者ごとに、
前記訓練被験者の前記MR画像に大域変換を適用して、前記テンプレート空間において、前記訓練被験者のMRデータの第1の推定値を表す前記MR画像の第1のモーフィングバージョンを生成すること、及び
前記訓練被験者の前記MR画像の前記第1のモーフィングバージョンに局所変換を適用して、前記テンプレート空間において、前記訓練被験者の前記MRデータの第2の推定値を表す前記MR画像の第2のモーフィングバージョンを生成することと、
前記初期解剖学テンプレート画像を、前記第1の訓練被験者以外の前記複数の訓練被験者の前記MR画像の前記第2のモーフィングバージョンと平均して、最終的な解剖学テンプレート画像を生成することと、
前記最終的な解剖学テンプレートに、前記1つ以上の関心の解剖学的構造の前記境界を描写することと、
前記最終的な解剖学テンプレートを使用して、他の非訓練被験者についての前記1つ以上の関心の解剖学的構造の前記境界を識別することと、を含む、方法。
1. A method comprising:
acquiring, via an MRI scanner, corresponding MR images with contrast illustrating one or more anatomical structures of interest for each of the plurality of training subjects;
generating, by a computing device, an initial anatomical template image based on first MR data of a first training subject of the plurality of training subjects, the initial anatomical template image defining a template space;
For each training subject of the plurality of training subjects other than the first training subject,
applying a global transformation to the MR images of the training subject to generate a first morphed version of the MR images that represents a first estimate of the MR data of the training subject in the template space; and applying a local transformation to the first morphed version of the MR images of the training subject to generate a second morphed version of the MR images that represents a second estimate of the MR data of the training subject in the template space.
averaging the initial anatomical template image with the second morphed versions of the MR images of the plurality of training subjects other than the first training subject to generate a final anatomical template image;
delineating the boundaries of the one or more anatomical structures of interest in the final anatomical template;
and using the final anatomical template to identify the boundaries of the one or more anatomical structures of interest for other untrained subjects.
前記MR画像内の前記1つ以上の関心の解剖学的構造の前記境界を判定することが、
境界検出アルゴリズムを使用して、前記最終的な解剖学テンプレートにおいて、前記1つ以上の関心の解剖学的構造の前記境界を微調整することを含む、請求項11に記載の方法。
determining the boundaries of the one or more anatomical structures of interest within the MR image;
12. The method of claim 11, comprising fine-tuning the boundaries of the one or more anatomical structures of interest in the final anatomical template using a boundary detection algorithm.
前記MR画像内の前記1つ以上の関心の解剖学的構造の前記境界を判定することが、
前記MRIスキャナを介して、前記1つ以上の関心の解剖学的構造を例示するコントラストを伴う非訓練被験者のMR画像を取得することと、
前記非訓練被験者のMR画像に前記大域変換を適用して、前記非訓練被験者のMR画像の第1のモーフィングバージョンを生成することと、
前記非訓練被験者のMR画像の前記第1のモーフィングバージョンに前記局所変換を適用して、前記非訓練被験者のMR画像の第2のモーフィングバージョンを生成することと、
前記1つ以上の関心の解剖学的構造の前記最終的な解剖学テンプレートから、前記非訓練被験者のMR画像の前記第2のモーフィングバージョン上に前記境界を投影して、前記非訓練被験者についての前記テンプレート空間内の前記1つ以上の関心の構造の前記境界の推定値を判定することと、
前記1つ以上の関心の構造の前記テンプレート空間内の前記境界の前記推定値に逆変換を適用して、元の前記非訓練被験者のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界の第1の推定値を判定することと、を含む、請求項11に記載の方法。
Determining the boundaries of the one or more anatomical structures of interest in the MR image includes:
acquiring, via the MRI scanner, MR images of an untrained subject with contrast illustrating the one or more anatomical structures of interest;
applying the global transformation to the MR image of the untrained subject to generate a first morphed version of the MR image of the untrained subject;
applying the local transformation to the first morphed version of the MR image of the untrained subject to generate a second morphed version of the MR image of the untrained subject;
projecting the boundaries from the final anatomical template of the one or more anatomical structures of interest onto the second morphed version of the MR image of the untrained subject to determine an estimate of the boundaries of the one or more anatomical structures of interest in the template space for the untrained subject;
and applying an inverse transform to the estimates of the boundaries in the template space of the one or more structures of interest to determine a first estimate of the boundaries of the one or more anatomical structures of interest in the original MR image of the untrained subject.
境界検出アルゴリズムを使用して、前記非訓練被験者の元のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界の前記第1の推定値を微調整し、前記非訓練被験者の前記第2のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界の第2の推定値を生成することを更に含む、請求項13に記載の方法。 fine-tuning the first estimate of the boundaries of the one or more anatomical structures of interest in the original MR images of the non-training subject using a boundary detection algorithm; 14. The method of claim 13, further comprising generating a second estimate of the boundaries of the one or more anatomical structures of interest in the second MR image. 前記逆変換が、前記局所変換の逆と、続く前記大域変換の逆と、の連結を含む、請求項13に記載の方法。 14. The method of claim 13, wherein the inverse transform comprises concatenating an inverse of the local transform followed by an inverse of the global transform. 前記MR画像の前記第1のモーフィングバージョンに前記局所変換を適用することが、前記MR画像の前記第1のモーフィングバージョンのクロッピング領域に前記局所変換を適用することを含む、請求項11に記載の方法。 The method of claim 11, wherein applying the local transformation to the first morphed version of the MR image includes applying the local transformation to a cropping region of the first morphed version of the MR image. 前記対応するMR画像が、定量的感受性マップ(QSM)又はニューロメラニン画像を含む、請求項11に記載の方法。 12. The method of claim 11, wherein the corresponding MR image comprises a quantitative susceptibility map (QSM) or a neuromelanin image. 前記少なくとも1つのプロセッサが、前記非訓練被験者の元のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界に基づいて、前記1つ以上の関心の解剖学的構造のうちの少なくとも1つの体積を判定するように構成されている、請求項13に記載の方法。 The at least one processor is configured to determine one of the one or more anatomical structures of interest based on the boundaries of the one or more anatomical structures of interest in the original MR image of the non-training subject. 14. The method of claim 13, configured to determine at least one volume. 前記非訓練被験者の元のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界に基づいて、前記1つ以上の関心の解剖学的構造のうちの少なくとも1つの平均値強度を判定すること、又は
前記第2のMR画像内の前記1つ以上の関心の解剖学的構造の前記境界に基づいて、前記1つ以上の関心の解剖学的構造のうちの少なくとも1つの合計信号を判定することを更に含む、請求項13に記載の方法。
determining the average intensity of at least one of the one or more anatomical structures of interest based on the boundaries of the one or more anatomical structures of interest in the original MR image of the non-training subject; or determining a sum signal of at least one of the one or more anatomical structures of interest based on the boundaries of the one or more anatomical structures of interest in the second MR image. 14. The method of claim 13, further comprising determining.
非一時的コンピュータ可読媒体であって、前記非一時的コンピュータ可読媒体上に記憶されたコンピュータコード命令を含み、前記コンピュータコード命令が、プロセッサによって実行されるときに、前記プロセッサに、
MRIスキャナを介して、複数の訓練被験者の訓練被験者ごとに、1つ以上の関心の解剖学的構造を例示するコントラストを伴う対応するMR画像を取得することと、
前記複数の訓練被験者のうちの第1の訓練被験者の第1のMRデータに基づいて、初期解剖学テンプレート画像を生成することであって、前記初期解剖学テンプレート画像が、テンプレート空間を定義する、生成することと、
前記第1の訓練被験者以外の前記複数の訓練被験者の訓練被験者ごとに、
前記訓練被験者の前記MR画像に大域変換を適用して、前記テンプレート空間において、前記訓練被験者のMRデータの第1の推定値を表す前記MR画像の第1のモーフィングバージョンを生成すること、及び
前記訓練被験者の前記MR画像の前記第1のモーフィングバージョンに局所変換を適用して、前記テンプレート空間において、前記訓練被験者の前記MRデータの第2の推定値を表す前記MR画像の第2のモーフィングバージョンを生成することと、
前記初期解剖学テンプレート画像を、前記第1の訓練被験者以外の前記複数の訓練被験者の前記MR画像の前記第2のモーフィングバージョンと平均して、最終的な解剖学テンプレート画像を生成することと、
前記最終的な解剖学テンプレートに、前記1つ以上の関心の解剖学的構造の前記境界を描写することと、
前記最終的な解剖学テンプレートを使用して、他の非訓練被験者についての前記1つ以上の関心の解剖学的構造の前記境界を識別することと、を行わせる、非一時的コンピュータ可読媒体。
A non-transitory computer readable medium comprising computer code instructions stored on the non-transitory computer readable medium, the computer code instructions, when executed by a processor, causing the processor to:
acquiring, via an MRI scanner, corresponding MR images with contrast illustrating one or more anatomical structures of interest for each of the plurality of training subjects;
generating an initial anatomical template image based on first MR data of a first training subject of the plurality of training subjects, the initial anatomical template image defining a template space;
For each training subject of the plurality of training subjects other than the first training subject,
applying a global transformation to the MR images of the training subject to generate a first morphed version of the MR images that represents a first estimate of the MR data of the training subject in the template space; and applying a local transformation to the first morphed version of the MR images of the training subject to generate a second morphed version of the MR images that represents a second estimate of the MR data of the training subject in the template space.
averaging the initial anatomical template image with the second morphed versions of the MR images of the plurality of training subjects other than the first training subject to generate a final anatomical template image;
delineating the boundaries of the one or more anatomical structures of interest in the final anatomical template;
and identifying the boundaries of the one or more anatomical structures of interest for other, untrained subjects using the final anatomical template.
JP2023560465A 2021-04-02 2022-03-30 System and method for automatic template-based detection of anatomical structures Pending JP2024513845A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163170229P 2021-04-02 2021-04-02
US63/170,229 2021-04-02
PCT/US2022/022576 WO2022212526A1 (en) 2021-04-02 2022-03-30 Systems and methods for template-based automatic detection of anatomical structures

Publications (1)

Publication Number Publication Date
JP2024513845A true JP2024513845A (en) 2024-03-27

Family

ID=83459900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023560465A Pending JP2024513845A (en) 2021-04-02 2022-03-30 System and method for automatic template-based detection of anatomical structures

Country Status (6)

Country Link
US (2) US11651490B2 (en)
EP (1) EP4312729A1 (en)
JP (1) JP2024513845A (en)
KR (1) KR20230164161A (en)
CN (1) CN117177704A (en)
WO (1) WO2022212526A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0610916A3 (en) * 1993-02-09 1994-10-12 Cedars Sinai Medical Center Method and apparatus for providing preferentially segmented digital images.
US7660453B2 (en) * 2000-10-11 2010-02-09 Imaging Therapeutics, Inc. Methods and devices for analysis of x-ray images
US6757442B1 (en) * 2000-11-22 2004-06-29 Ge Medical Systems Global Technology Company, Llc Image enhancement method with simultaneous noise reduction, non-uniformity equalization, and contrast enhancement
CA2519187A1 (en) * 2003-03-25 2004-10-14 Imaging Therapeutics, Inc. Methods for the compensation of imaging technique in the processing of radiographic images
US9247880B2 (en) * 2012-02-23 2016-02-02 Siemens Aktiengesellschaft Image fusion for interventional guidance
RU2677764C2 (en) * 2013-10-18 2019-01-21 Конинклейке Филипс Н.В. Registration of medical images
US11282601B2 (en) * 2020-04-06 2022-03-22 International Business Machines Corporation Automatic bounding region annotation for localization of abnormalities

Also Published As

Publication number Publication date
US20230281814A1 (en) 2023-09-07
WO2022212526A1 (en) 2022-10-06
US11651490B2 (en) 2023-05-16
KR20230164161A (en) 2023-12-01
CN117177704A (en) 2023-12-05
US20220327699A1 (en) 2022-10-13
EP4312729A1 (en) 2024-02-07

Similar Documents

Publication Publication Date Title
Prados et al. A multi-time-point modality-agnostic patch-based method for lesion filling in multiple sclerosis
US7024027B1 (en) Method and apparatus for three-dimensional filtering of angiographic volume data
Visser et al. Automated segmentation of the substantia nigra, subthalamic nucleus and red nucleus in 7 T data at young and old age
US9101282B2 (en) Brain tissue classification
CN107644420A (en) Blood-vessel image dividing method, MRI system based on central line pick-up
Park et al. Segmentation of perivascular spaces in 7 T MR image using auto-context model with orientation-normalized features
Goubran et al. Image registration of ex-vivo MRI to sparsely sectioned histology of hippocampal and neocortical temporal lobe specimens
Worth et al. Precise segmentation of the lateral ventricles and caudate nucleus in MR brain images using anatomically driven histograms
Rueda et al. Topology-corrected segmentation and local intensity estimates for improved partial volume classification of brain cortex in MRI
Lemaitre Computer-aided diagnosis for prostate cancer using multi-parametric magnetic resonance imaging
Rajapakse et al. A technique for single-channel MR brain tissue segmentation: application to a pediatric sample
Lv et al. Performance of U-net based pyramidal lucas-kanade registration on free-breathing multi-b-value diffusion MRI of the kidney
Jin et al. Automatic detection of neuromelanin and iron in the midbrain nuclei using a magnetic resonance imaging‐based brain template
US10846861B2 (en) Image processor, image processing method, program for image processing, and magnetic resonance imaging apparatus
Gulban et al. Mesoscopic in vivo human T2* dataset acquired using quantitative MRI at 7 Tesla
US20050207631A1 (en) Method of image analysis
CN114862799B (en) Full-automatic brain volume segmentation method for FLAIR-MRI sequence
JP2024513845A (en) System and method for automatic template-based detection of anatomical structures
EP1768041B1 (en) Brain tissue classification
Ellingson et al. Gray and white matter delineation in the human spinal cord using diffusion tensor imaging and fuzzy logic
Bazin et al. Belief propagation based segmentation of white matter tracts in DTI
US20220291317A1 (en) Diffusion-Weighted Magnetic Resonance Imaging
Metwali et al. Data-driven identification of the regions of interest for fiber tracking in patients with brain tumors
Umapathy et al. A Contrast Synthesized Thalamic Nuclei Segmentation Scheme using Convolutional Neural Networks
Styner et al. Automatic regional analysis of DTI properties in the developmental macaque brain

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128