CN115461790A - 用于对图像中的结构进行分类的方法和装置 - Google Patents
用于对图像中的结构进行分类的方法和装置 Download PDFInfo
- Publication number
- CN115461790A CN115461790A CN202180031174.2A CN202180031174A CN115461790A CN 115461790 A CN115461790 A CN 115461790A CN 202180031174 A CN202180031174 A CN 202180031174A CN 115461790 A CN115461790 A CN 115461790A
- Authority
- CN
- China
- Prior art keywords
- bundle
- image
- block
- bundles
- accessed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4058—Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
- A61B5/4064—Evaluating the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Fuzzy Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Neurosurgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
Abstract
本发明公开了一种用于分割选定数据的系统和方法。在各种实施方案中,可执行图像数据中的纤维束的自动分割。该自动分割可允许识别图像中的特定纤维束。
Description
相关申请的交叉引用
本申请包括与美国专利申请16/862,840(代理人案卷号5074A-000211-US)和美国专利申请16/862,890(代理人案卷号5074A-000213-US)中的公开内容类似的主题。上述申请中的每个申请的全部公开内容以引用方式并入本文。
技术领域
本公开涉及一种示踪成像,并且具体地涉及一种示踪成像分类方法和系统。
背景技术
本部分提供与本公开相关的背景信息,其不一定是现有技术。
成像技术可用于获取受检者的图像数据。受检者的图像数据可包括用于使受检者的一个或多个结构可视化的一种或多种类型的数据。结构可包括受检者的外部结构或内部结构。在各种系统中,例如,可利用选择性成像技术获取受检者的内部结构的图像。
图像数据可用于生成被显示以供用户查看的图像。图像可被显示在选定系统诸如显示设备上,以供用户进行视觉检查。一般来讲,用户可查看图像以帮助对受检者执行规程。
发明内容
本部分提供本公开的一般概述,并且不是本公开的完整范围或其全部特征的全面公开。
方法可用于对数据(诸如图像数据)中的各种结构进行识别和/或分类。这些结构可被识别为诸如受检者(诸如人类受检者)的脑中的纤维或束。然而,应当理解,过程可用于识别任何适当的受检者体内的束。一般来讲,这些束是包括白质轴突的神经元束。该方法可用于识别脑中的各种束以帮助各种规程,诸如肿瘤切除、植入物放置(例如,深部脑刺激导联)或其他适当的规程。
在各种实施方案中,即使在存在标准解剖结构的畸变的情况下,该过程也可用于识别神经元束。例如,肿瘤可在脑中生长,这可能影响通常理解或存在的神经元束。因此,即使在图像数据中存在肿瘤或其他异常解剖结构的情况下,该过程也可帮助识别神经元束。
然后可出于各种目的显示神经元束。这些束可用于识别脑的各种特征和/或结构以帮助规程。此外,图像可用于帮助执行规程,诸如选定受检者体内的肿瘤切除或植入物定位。因此,图像数据可用于识别图像数据中的束,并且这些束和/或其他适当的特征可利用显示设备以一个或多个图像显示。
根据本文提供的描述,另外的适用性领域将变得显而易见。本概述中的描述和具体示例仅旨在用于说明的目的,并且不旨在限制本公开的范围。
附图说明
本文所述的附图仅用于选定实施方案的说明性目的,而不是所有可能的具体实施,并且不旨在限制本公开的范围。
图1是成像系统和受检者的环境视图;
图2是规程室的环境视图;
图3是根据各种实施方案的分割图像数据的方法的流程图;
图4是根据各种实施方案的分割图像数据的方法;
图5是根据各种实施方案的分割图像数据的方法的流程图;
图6A是根据各种实施方案的用于训练系统以分割图像数据的方法的流程图;并且
图6B是根据各种实施方案的用于使用系统来分割图像数据的方法的流程图。
在所有附图的若干个视图中,对应的附图标记指示对应的部件。
具体实施方式
现在将参考附图更完整地描述示例性实施方案。
系统可用于获取受检者的图像数据。例如,如图1中示意性地示出。一般来讲,可利用选定成像系统20对受检者进行成像。成像系统20可以是用于获取受检者24的选定图像数据的任何适当的成像系统,诸如磁共振成像仪(MRI)。MRI可以各种方式或模式(诸如包括扩散加权数据获取方式)操作。在扩散加权技术中,可确定或估计水的扩散或移动以帮助确定束,如本文进一步讨论。成像系统20可包括用于在受检者24移动通过成像系统20期间支撑该受检者的选定支撑件28。成像系统可包括本领域技术人员通常已知的部件。然而,应当理解,任何适当的MRI成像系统可用作成像系统20或任何其他适当的成像系统。然而,成像系统20可被操作以生成受检者24的图像数据。
继续参考图1并且另外参考图2,在利用成像系统20获取数据(该数据可包括解剖图像数据和/或扩散加权数据)之后和/或在(例如,利用适当的成像系统)获取期间,可将受检者24移动或安置到选定手术室中以用于执行规程。在对受检者24执行规程时或者为了计划对受检者执行规程,可将受检者24的图像32显示在选定工作站或系统40的显示设备36上。可出于各种原因使用图像32的显示,这些原因诸如为对受检者24的规程做准备、帮助对受检者24执行规程或其他适当的目的。如本文所讨论,例如,图像32可包括要在显示设备36上显示的在图像32中识别的束的图示和/或利用成像系统24获取的图像数据。束可包括受检者24的脑中的纤维神经元束。束还可包括其他适当的束,诸如脊髓中的纤维束。解剖或已知纤维束还可被称为给定纤维束。
工作站或处理器系统40可包括各种部分或特征,诸如输入设备44、处理器部分或模块48和存储器52。选定连接诸如有线或无线连接54可将处理器48和/或存储器52与显示设备36和/或输入设备44连接。因此,选定用户诸如用户58可为系统40提供输入或选择输入和/或查看显示设备36,诸如图像32的视图。
在各种实施方案中,图像32可针对选定规程被配准到受检者24。例如,可对受检者24执行肿瘤切除、植入物放置等。然而,应当理解,受检者24可以是无生命的物体,并且可执行其他适当的规程,诸如零件替换或连接。成像和配准可以适当的方式发生,诸如2016年4月12日发布的美国专利9,311,335中公开的那些,该专利以引用方式并入本文。简而言之,配准可包括相对于受检者24限定的受检者空间和由图像32限定的图像空间之间的平移。可针对两个空间开发坐标系,并且可在这两个空间之间制作平移图。
在各种实施方案中,为了配准,可诸如由用户52识别受检者24的部分,并且可在图像32中识别相同部分。然后可通过基于所识别的类似或相同点(也被称为基准点)生成或确定受检者空间和图像空间之间的平移图来进行受检者空间和图像空间之间的配准。处理器模块48可执行指令以执行受检者空间到图像空间的平移和配准。
在配准之后,可并入工作站或处理器系统40的导航系统70可选择性地执行可用于帮助执行规程的平移和配准。一旦配准发生,动态参考框架或患者参考设备74可连接或固定到受检者24。DRF 74可包括利用导航系统70跟踪以确定受检者24的移动并且维持与图像32的配准的跟踪设备或部分。仪器工具76也可利用选定跟踪设备诸如与该仪器相关联(诸如附接到该仪器)的跟踪设备78来跟踪以用于规程。仪器可以是可被植入的深部脑刺激导联中的至少一个深部脑刺激导联。除仪器之外,还可跟踪和/或确定选定规程,诸如计算DBS导联的激活量和/或计算用于消融的热消融估计。在各种实施方案中,定位器82可生成由跟踪设备78和/或DRF 74感测以允许利用导航系统70进行跟踪的场86。控制器诸如线圈阵列控制器90可从定位器82接收信号和/或控制定位器82和/或从跟踪设备78接收信号并且将该信号发射到工作站处理器模块48。然后,处理器模块48可执行指令以确定跟踪设备78相对于受检者24的位置,以允许仪器76相对于受检者74的导航。因此,被跟踪部分(例如,仪器76)的图形表示94可在显示设备36上相对于图像32显示,以通过显示仪器相对于图像32的图形表示94来显示仪器76相对于受检者24的实时定位。一般来讲,跟踪系统能够跟踪并示出被跟踪部分的定位或位姿。该定位可包括三维位置和一个或多个维度取向。一般来讲,至少四个自由度信息,包括至少六个自由度或任何选定量。
如本文进一步讨论,图像32可包括选定图像特征诸如脑的束,并且图形表示94可相对于这些选定图像特征显示。因此,限定或确定要执行规程的束可帮助执行选定规程,如本文进一步讨论。
如上文所讨论,成像系统20可用于针对选定规程生成受检者24的图像数据。可根据过程(包括一个或多个过程)来处理图像数据,如本文进一步讨论。在选定过程或多个过程后,图像数据可用于生成要在显示设备36上显示的一个或多个图像。此外,各种过程可用于识别也可由如本文所讨论的选定处理系统(诸如处理器模块48)输出的特征。
根据各种实施方案,本文公开了用于识别(诸如通过分割)图像或数据部分的系统和方法。例如,可分割一个或多个纤维丛或束。纤维束可包括一根或多根纤维,该一根或多根纤维由系统分割、旨在表示受检者的脑中的神经元束。纤维或线包括由选定系统(例如,算法)产生的单独线,该单独线可为一组线中的一条线或一部分、旨在表示受检者的脑中的物理神经元束。白质束或解剖束是受检者的脑中的将来自脑的一个区域的电信号输送到另一个区域的轴突的物理丛,并且旨在由纤维束表示。任何给定数据中可存在多于一个纤维束和白质束。给定纤维束或白质束可以是预先确定的或命名的束。
最初参考图3并且继续参考图1和图2,在过程100中示出了识别或分割纤维束或丛的方法。该过程可用于诸如通过分割选定纤维束来识别,这些选定纤维束还可被称为给定纤维束。纤维束可以是脑纤维束,并且还被称为给定纤维神经元束。分割可包括分割来自其他束的给定束和/或其他数据诸如图像数据(即,对哪些纤维属于给定神经元束进行分类)。应当理解,分割可根据各种实施方案(包括各种实施方案的组合)发生,如本文所讨论。
最初,过程100可在开始框104中开始。开始框104中的开始可包括适当的措施或步骤,诸如评估患者、定位患者或受检者以进行成像、评估受检者或评估受检者的可能治疗或诊断。然而,应当理解,在开始框104中可发生任何适当的规程。在于开始框104中开始过程100之后,可在框108中访问或调用扩散加权梯度图像或适当的数据。应当理解,过程100可包括:在框108中诸如利用成像系统20获取图像数据。
在各种实施方案中,图像数据可在任何适当的时间获取并且以选定方式保存以帮助执行规程。因此,在框108中访问或调用图像数据可包括:利用成像系统诸如如上文所讨论的成像系统20获取受检者的图像数据和/或调用先前获取的图像数据。例如,图像数据可在第一情况下诸如在初始诊断或测试过程期间获取,并且可在规程100中使用该数据。因此,可在框108中访问图像数据而非获取新的图像数据。另外或另选地,可获取受检者24在规程期间或在规程位置(例如,用于切除或植入的手术室)中的图像数据。
在于框108中访问图像数据之后,选定示踪成像的确定可在框112中发生。框112中的选定示踪成像的确定可包括完整图像示踪成像,该完整图像示踪成像包括鉴于所获取的图像数据根据一种或多种各种已知技术来识别所有可能的纤维线或束。各种技术可包括利用或通过选定算法和/或用户识别或尝试识别所有可能束。例如,示踪成像可根据适当的技术诸如适当的算法技术来执行。例如,示踪成像可利用扩散张量成像示踪成像系统(诸如由美敦力公司销售的包括有示踪成像和图像引导外科手术系统的示踪成像系统)来执行。其他适当的示踪成像技术可包括在2016年4月12日发布的美国专利9,311,335中描述的示踪成像技术。
在各种实施方案中,作为整个或完整图像示踪成像(例如,整个脑示踪成像)的补充或替代,选定示踪成像可小于或可包括小于完整图像示踪成像。因此,选定示踪成像可包括完整图像示踪成像的子集。例如,仅在选定的感兴趣区域(例如,脑的一半或脑干中)之间等。因此,如本文所讨论,针对分割/识别过程生成的选定示踪成像可包括完整图像示踪成像和/或仅完整图像示踪成像的子集。此外,虽然可生成完整图像示踪成像,但是可分析仅纤维线或束的子集以进行分割。因此,除非另外特别说明,否则本文中对框112中的图像示踪成像或等同物的讨论被理解为包括完整图像示踪成像、选定图像示踪成像或它们的组合。
在于框112中确定选定示踪成像之后,可在框116中输出选定示踪成像。在各种实施方案中,图像可包括受检者24诸如人类受检者的脑的图像。因此,完整图像示踪成像可包括全脑的示踪成像。如上文讨论,选定示踪成像可以是全脑的示踪成像的一部分。然而,应当理解,在框116中输出的脑或图像示踪成像可简单地或仅包括所有束的可能连接的确定。如本领域技术人员所理解,示踪成像可包括选定物质诸如水的可能或平均移动或移动趋势的确定。因此,在框116中输出的示踪成像可简单地是所有可能束或连接和/或在所访问的图像数据108内识别的选定束。因此,在框116中输出的示踪成像可不完全或准确地限定或识别受检者体内的特定解剖神经元束。
然后可分割输出示踪成像以通过在框120中调用经训练的分类系统来输出或识别选定或给定纤维束,诸如神经元束(例如,皮质脊髓束、视束等)。经训练的分类系统可包括随机森林分类系统,该随机森林分类系统已被训练成使用各种特征诸如纤维点和图像特征,以对选定示踪成像中的纤维是否属于特定神经元束进行分类。如上文所讨论,脑示踪成像可包括图像内物质诸如水的可能或平均扩散的任何所识别束或连接。因此,图像示踪成像的分割可尝试对与某些解剖功能或特征相关的各种可能束(诸如皮质脊髓束(CST)、眼眶或眼束或其他适当的解剖或神经束)进行识别或分类。
可使用可为不同束的学习参数的各种参数来训练分类系统。特征的参数可包括可在图像示踪成像内识别并且可评估的特征的各种参数。特征可包括所识别点和这些点在图像示踪成像中的束上的位置。点之间的线段和/或来自每个点的向量。每个点处的分数各向异性(FA)。每个点处的扩散编码颜色(DEC)值。每个点处的曲率,诸如到下一个点的线段的曲率。与所确定点或选定数量的点处的已知纤维束或已知脑区域的图谱进行比较。图谱可以是选定纤维束或已知脑区域的通常已知图谱(例如,脑神经元束图谱)。束从相应开始区域到结束区域的距离或长度。在图像内的每个点和/或解剖梯度量值处的附加或其他图像特性。这些特征可利用多个数据诸如先前分类的数据进行训练。先前分类的数据可由阅读专家(例如,神经外科医生)分类。
然后,经训练的分类系统可用于对图像示踪成像116内的束进行分类。例如,指令可被保存并从包括上述特征中的一个或多个特征的存储器52调用。然后可利用分类系统评估图像示踪成像以识别给定束。所分割束还可被称为所识别或所分割束。
在框120中调用的经训练的分类系统用于分割给定纤维束。然后可在框130中发生图像示踪成像的自动分割。如上文所讨论,系统可包括工作站或处理器系统40,该工作站或处理器系统可包括处理器模块48。处理器模块48可与存储器52通信。存储器52可包括所访问的图像数据108和可在框120中调用的分类系统。
处理器模块48利用经训练的分类系统对脑示踪成像执行或评估来自框108的所访问数据以在框130中自动地分割图像示踪成像中的纤维束诸如神经束或神经纤维。自动分割可通过将分类系统应用于选定图像示踪成像来发生。自动分割将分类参数应用于选定示踪成像,并且因此可生成或确定选定图像分割(包括完整或子集分割)。在各种实施方案中,自动分割可识别选定特征(诸如感兴趣区域(ROI)(例如,可能的开始区域和结束区域)或束通过或不通过的其他脑区域)并且使用这些选定特征对纤维进行分类。在对束进行分类时,分类系统可识别可为或为神经元束的给定纤维束,即解剖特征束。解剖特征可由用户(诸如用户78)预选,或者可由系统识别,使得所有可能束被分割和识别。
框130中的自动分割可通过以下方式来执行:利用处理器模块48执行指令并且利用所调用的分类系统来评估选定图像示踪成像。因此,自动分割可确定或识别可在框140中输出的所分割的纤维束。在框140中输出所分割的纤维束可包括:输出具有选定置信区间以基于在框120中调用的分类系统被识别为选定束的所有纤维束。框140中的输出可仅包括被选择以由用户78或其他适当的系统识别的那些束,和/或可包括来自分类系统120的所有可能束的识别和输出。因此,可训练分类系统120以识别多个束(例如,CST、视束、听束等),并且在框140中可分割和输出所有经训练的束。因此,输出140可包括系统训练的所有束和/或基于用户78的选择或其他适当的选择而包括仅选定束。
然后方法100可在框150中结束。在框150中结束,选定规程100可允许另外的分析以用于要发生的规程。如上文所讨论,选定的所分割(即,所识别)束可用于选定规程,诸如肿瘤切除、植入物定位或其他适当的确定。因此,在结束框150之后或在该结束框中,用户78可识别相对于或接近肿瘤的特定位置或束以用于肿瘤的切除。此外,用户78可根据通常已知或识别的束识别受检者24体内相对于肿瘤或可影响(例如,移动)束的其他生理异常的束,以帮助将植入物定位在受检者24体内等。
在各种实施方案中,框140中的输出的所分割的纤维束可在显示设备36上诸如相对于受检者24的图像(例如,受检者24的3D MRI)显示,以帮助规程。如上文所讨论,图像32可被配准到受检者24。因此,来自框140的输出的所分割的纤维束可叠加在图像32上以帮助对受检者24执行规程。因此,仪器76的图标或图形表示94也可相对于来自框140的输出的所分割的纤维束显示。应当理解,输出的所分割的纤维束还可显示为叠加在从受检者24的图像数据生成并且显示为图像32的图像上的图形表示。
因此,方法100可用于自动地分割诸如受检者24的脑中的给定纤维束。所分割的纤维束可用于帮助规程,诸如在结束框150中。该规程可以是用于导联(例如,深部脑刺激导联)的植入、肿瘤的切除等的导航规程。自动分割可由处理器模块48通过利用所调用的分类系统评估图像示踪成像来执行。
转向参考图4,并且继续参考图1和图2,在方法200中示出了用于识别或分割神经元纤维束的过程。除上文关于方法100讨论的那些特征之外,方法200还可包括附加特征,和/或可包括与上文所讨论的那些类似或相同的步骤或过程。因此,类似过程将以补充上标符号(')的类似或相同的附图标号包括,并且在此将不详细讨论。应当理解,如此识别的过程可与上文所讨论的那些过程相同,和/或可类似并且包括与过程200中所示的特定方法相关的轻微注释的补充。
最初,方法200可在开始框204中开始,该开始框类似于如上文所讨论的开始框104。然后,方法200可继续在框108'中访问和/或调用扩散加权梯度图像。所访问或所调用的扩散加权梯度图像可类似于上文在框108中讨论的那些。扩散加权图像然后可具有在框112'中确定的选定示踪成像。该选定图像示踪成像可类似于如上文所讨论的框112中的图像示踪成像。此外,然后可在框116'中输出图像示踪成像。同样,选定图像示踪成像的输出可类似于如上文所讨论的框116中的图像输出。
框108'中的访问或调用扩散加权图像、框112'中的图像示踪成像和框116'中的图像示踪成像的输出的过程可类似于如上文所讨论的过程。因此,过程的细节在此将不重复并且可参考上文。
然而,过程200还可包括附加和/或另选过程,包括基于来自框112'的选定示踪成像生成噪声扩散示踪成像。如本文所讨论,可利用各种附加输入来生成噪声示踪成像。因此,噪声扩散示踪成像可包括和/或可为选定示踪成像算法的结果,该选定示踪成像算法由于在框108'中访问的图像数据中所收集的扩散加权信息而识别可能束。
方法200还可包括第二或次级输入路径或部分220。在各种实施方案中,子过程可以是框108'中所访问的扩散加权梯度图像的输入。次级输入可帮助识别至少选定部分(包括图像)内诸如脑内的感兴趣区域(ROI)。输入子过程220可包括可在框224中访问MR图像(其可包括FA图像)。在框224中访问的MR图像可以是在框108'中利用扩散加权梯度图像获取的图像。如本领域技术人员所理解,扩散加权梯度图像可在利用MRI系统获取图像的过程时获取。因此,MR图像可与在框108'中访问的扩散加权梯度图像基本上同时获取。
子过程220还可包括可在框226中调用经训练的机器学习系统诸如人工神经网络(ANN),该ANN可包括卷积神经网络(ANN例如CNN)。经训练的ANN可利用适当的图像数据(诸如在于框224中访问的MR图像中成像的同一区域或部分的图像数据的训练集)进行训练。例如,可利用所分类或所识别区域(诸如可在所访问的MR图像内的ROI)训练ANN。各种ROI可包括涉及已知或所识别的给定纤维神经束的开始区域和结束区域的解剖或特征区域或构建体。它们还可包括已知束通过或不通过的区域。选定ROI可包括皮质脊髓束在脑干中的开始区域(例如,大脑脚的部分)、皮质脊髓束在中央前脑回和中央后脑回中的结束区域。
因此,基于先前图像数据训练的经训练的ANN可与用于ANN中的各个神经元的适当权重一起存储以用于识别新图像中的ROI'。例如,在框224中访问的MR图像可以是受检者24的MR图像。因此,在框230中可使用经训练的ANN来识别来自框224的所访问的MR图像中的ROI'。框230中的MR图像中的ROI'的应用或识别可帮助识别神经元束的开始区域和结束区域的ROI'。所识别的ROI'可帮助识别给定或选定神经元束以帮助在方法200中分割神经元束。可在框240中进行所分割的脑区域或ROI'的输出。输出的所分割的脑区域可包括诸如在CNN的训练图像数据中识别的开始或结束ROI',或任何适当的脑区域。它们还可包括已知束通过或不通过的区域。其他适当的脑区域可包括选定的解剖或生理脑区域,诸如中央前脑回和中央后脑回、大脑脚、初级视觉皮层、外侧膝状体核。
如上文所讨论,在方法100中,分类系统可用于自动地识别(还被称为分类)来自扩散加权梯度图像的束(例如,神经元束)。因此,方法200还可在框120'中调用经训练的分类系统。所调用的经训练的分类系统可类似于上文在方法100中的框120中的所调用的训练分类系统中讨论的分类系统,但是它可具有来自子过程220的输入。
子过程220还可为或另选地为框120'中的所调用的经训练的分类系统的输入。因此,子过程220可用作过程200的输入。子过程220允许分割包括关于ROI的选定信息或分割。
在框130中,所调用的经训练的分类系统可用于自动地识别或分割图像束。图像束的自动识别可类似于上文在框130中讨论的图像束的自动识别。如方法200中所示,子过程220还可为框130'中的自动分割的单独输入。因此,框240中的输出的所分割区域也可为或另选地为框130'中的自动分割的输入。
框130'中的给定神经元束的分割可通过执行在框120'中调用的经训练的分类系统来自动地执行。来自框240的图像(诸如脑)中的选定区域的识别或分割可帮助或提供神经元束的开始点和结束点或图像中的其他适当的区域。其他图像区域可帮助分类系统对神经束进行识别和分类。如上文所讨论,可鉴于各种特性识别神经元束,并且选定的开始区域和结束区域(或束通过或不通过的其他区域)可帮助将神经元束识别为图像中的纤维束。然而,在框130'中,图像中的选定区域的识别和这些区域的分割可帮助给定神经元束的识别和分割。
因此,方法200可包括各种另选或附加过程。例如,方法200可在框130'中利用来自识别图像中的ROI的子过程220的输入自动地分割。
然后,所分割的神经元束可在框140'中输出,类似于如上文所讨论的框140中的输出。然后,过程200可在框150'中结束,也类似于上文框150中的结束。因此,所分割的神经元束的输出可包括任何适当的输出,并且过程200的结束可包括各种附加或单独规程,如上文所讨论。然而,如上文所讨论,同样可利用处理器模块48执行的方法200可包括选定图像区域的分割以及框240中的来自发送过程的选定图像区域的输出或用于帮助自动地识别来自框108'的所访问的扩散加权图像中的神经元束的输入220。
转向参考图5并且继续参考图1和图2,讨论了用于分割纤维束的方法和过程300。方法300可包括类似于上文在方法100和200中讨论的部分和特征的各种部分或特征。相似框将以补充有双上标符号(”)的类似数字识别,并且在此将不再次详细讨论。因此,方法300可用于分割(包括识别)给定神经元束。
最初,类似于上文所讨论的方法100和方法200的方法300可由选定处理器(诸如处理器模块48)通过选定算法或程序中的指令执行。因此,应当理解,方法300可由工作站或处理器系统40执行。方法300可包括在算法中,该算法可由处理器执行或实施以帮助和/或有效地实施选定规程,如本文进一步讨论。
因此,方法300可在开始框304中开始。框304中的开始可类似于如上文诸如在框104中所讨论的开始。因此,可使用各种操作来开始过程300。在于框304中开始之后,可在框108”中进行扩散加权梯度图像数据的调用或访问。在访问所调用的扩散加权图像之后,可在框112”中进行图像的示踪成像。该图像示踪成像可类似于如上文在框112和112'中所讨论的整个图像示踪成像。然后在框116”中,可将图像示踪成像作为图像(例如,脑)示踪成像输出。
然而,过程300还可包括附加和/或另选过程,包括基于来自框112”的选定示踪成像生成噪声扩散示踪成像。如本文所讨论,可利用各种附加输入来生成噪声示踪成像。因此,噪声扩散示踪成像可包括和/或可为选定示踪成像算法的结果,该选定示踪成像算法由于在框108”中访问的图像数据中所收集的扩散加权信息而识别可能束。
也如上文在方法200中所讨论,选定子方法或过程220”可用于帮助识别图像中的各种ROI'。子过程220”可类似于如上文所讨论的子过程,并且在此将简要叙述。因此,可在框224”中访问或调用MR图像。如上文针对框226所讨论,可在框226”中调用经训练的ANN。经训练的ANN可类似于上文在框226中所讨论的ANN,并且因此可利用选定图像进行训练以识别图像中的各种ROI'。
在框230”中,可将经训练的CNN应用于评估所访问图像。然后,可在框240”中输出所分割区域,诸如包括选定纤维束的开始和结束的选定ROI'。然后可在210”中将输出的所分割的ROI'输入到噪声扩散,以帮助识别用于分类的选定区域或识别图像中的特定或给定神经元束。
方法300可包括在框320中调用经训练的机器学习系统,诸如一个或多个人工神经网络(ANN)(例如,生成对抗网络)。经训练的机器学习系统可包括人工神经网络,该人工神经网络被训练以分割图像示踪成像中的给定神经元束的束。经训练的机器学习系统可以任何适当的方式训练,并且包括适当的权重,这些权重用于调整激活函数的输入以提供适当的输出。一般来讲,可将权重应用于用于计算激活函数的各种输入。在适当值时,激活激活函数以提供用于帮助和确定选定特征的输出。因此,经训练的机器学习系统可基于选定输入(诸如所识别束的输入)进行训练。所识别束可由在训练数据中识别束的选定用户(诸如神经外科医生)识别。机器学习系统然后可基于训练数据进行训练,并且然后保存以应用于附加输入数据,该附加输入数据包括整个或图像示踪成像中的所访问图像,如上文所讨论。然而,应当理解,各种机器学习系统可包括半监督方法或未监督方法。
因此,在于框320中调用经训练的机器学习系统之后,可在框330中进行给定纤维神经元束的自动分割。框330中的自动分割使用经训练的机器学习系统来识别图像中的特定或给定束。同样,框330中的自动分割可由处理器模块48执行,这包括执行来自框320的所调用的经训练的ML的指令和其他选定输入。
另外,子过程220”可任选地向框320中的经训练的机器学习系统提供输入以用于自动分割330。换句话讲,在框240”中输出的所分割的ROI'可为或可不为来自框116”的图像示踪成像的选定分割(框330中的自动分割)的输入。因此,自动分割可在或可不在来自子过程220”的所分割的ROI的帮助下进行。
在框320中的自动分割之后,可在框140”中输出给定神经元束的自动分割的纤维束。该输出可类似于上文在框140、140'中讨论的输出。然后,方法300可在框150”中结束。同样,如上文所讨论,框150”中的方法300的结束可导致各种附加规程或过程,诸如使用所分割的神经元束用于选定规程,诸如肿瘤的切除、导联的植入或其他适当的规程。
包括如上文所讨论的方法100、方法200和方法300的各种方法包括一般特征,这些特征可包括在算法中以分割选定图像数据集中的纤维束。如上文所讨论,这些方法可包括可由选定系统(诸如处理器模块48)在执行选定方法时实施的各种特征或过程。因此,参考图3至图5,并且另外参考图6A,算法或方法500被示出用于帮助训练系统以用于自动分割,如上文所讨论。方法500可并入上文所讨论的包括方法200、300和400的过程中,以生成或允许根据选定方法进行的给定纤维束的分割,如上文所讨论。在各种实施方案中,方法500的过程中的一个或多个过程可包括在上文所讨论的方法100、200、300中。
因此,一般来讲,方法500可包括在框510中访问扩散梯度图像。框510中的所访问的梯度扩散图像可类似于如上文所讨论的那些。然后可处理所访问的梯度扩散图像以在框514中确定所访问图像510中的示踪成像。框514中的示踪成像处理也可类似于如上文所讨论的示踪成像处理,包括用于识别在框510中访问的图像内的束或可能束的各种示踪成像算法。根据与如上文所讨论的方法200-400一致的方法500,可在示踪成像中识别选定的特定纤维。
在方法500中,可对示踪成像进行各种处理,在框514中的示踪成像处理之后或从该示踪成像处理可输出和/或访问处理后的图像数据。例如,在框520中可生成定向编码颜色(DEC)分数各向异性(FA)映射。DEC/FA图像可包括根据通常已知技术基于所访问的图像数据识别的一个DEC/FA图像。另外,框524中的B0掩模图像和框528中的B0图像可被访问并应用于示踪成像处理。B0掩模和图像可包括其中不包括扩散信息的图像。此外,可包括框532中的全脑示踪成像(WBT)的选定图像(例如,脑)示踪成像也可从示踪成像处理输出。
在框536中,可将示踪成像输出任选地配准到一个或多个参考图像。如果配准,则还可利用DEC/FA变换所配准图像。在框536中,到参考空间的配准可包括适当的缩放和空间变换。到参考空间的配准可允许确定所识别的图像示踪成像的定位或各种特征。
可在框540中创建或确定阴性束。阴性束是图像示踪成像中不是系统被训练以分类/分割的神经元束的一部分的那些纤维。阳性束是属于系统被训练以分类/分割的神经元束的那些纤维,并且它们由经训练的专家(例如,神经放射科医生)创建。在540处可诸如通过筛选(filtering)距阳性束距离最远且在形状上与阳性束最不同的束来生成或产生阴性束的创建。可进行各种附加处理,诸如,然后也可在框546中增强阴性束和阳性束。增强可包括随机旋转、缩放、平移以及向纤维和图像特征添加高斯和其他类型的噪声。
如上文所讨论,然后可分析并处理数据中的束以用于训练给定束的选定分割方法。分割训练可根据可串联或单独进行的各种技术进行。因此,训练可沿至少两个路径一起或交替地进行以训练选定系统。
在各种实施方案中,可训练分类系统,因此,可遵循路径564来计算框560中的每条线的各种特征。这些特征可包括对各种束(其还可被称为线)的各种确定或分析,以用于对纤维束进行另外的分割和识别,如上文所讨论并且在本文中进一步讨论。例如,可确定沿着束线的点的数量和点的位置。可诸如相对于彼此并且根据相应点中的每个点确定点之间的每个线段的向量。可针对每个点确定或计算分数各向异性(FA)值。另外,可针对每个点计算或确定定向编码颜色信息。还可沿着束中的每个束计算每个点(诸如相邻点中的每个点)处的曲率。在各种实施方案中,还可识别或访问图谱诸如通常已知的脑图谱图像或模型,并且可进行与所识别束的结构的比较。适当的脑图谱可包括开源应用程序Freesurfer或FSL(由英国牛津大学的FMRIB团体创建)中所包括的那些。另外的计算可包括束在开始区域或点和/或结束区域或点之间的长度。因此,可针对图像中的束中的每个束测量或计算束的整个长度。
还可进行关于感兴趣区域子过程580的输入。感兴趣区域子过程580可类似于如上文所讨论的感兴趣区域子过程220。因此,可在框584中访问解剖图像数据,并且可在框588中标识各种区域,诸如开始区域和结束区域、解剖特征或结构等。各种特征的标识可包括包括有CNN的机器学习系统(诸如上文所讨论的机器学习系统)的应用。CNN可利用各种数据训练,并且经训练的CNN可用于识别所访问的图像数据(诸如在框584中访问的图像数据)中的结构或区域。然而,ROI子过程580可用于识别ROI以帮助确定或分割选定神经元纤维。来自子过程580的输入可被包括和/或增强框560中的所计算特征。
在框592中,子过程580还可访问或比较选定纤维束图谱。图谱可包括可用于在框514的分割中分析或处理束的纤维束的模型。因此,子过程580可利用选定纤维束图谱。
在分类系统训练中,可在框610中调用或生成用于训练的分类系统。训练分类系统可包括适当的分类系统,诸如上文所讨论的包括随机力或其他适当的分类系统的那些。
在训练或任何选定时间期间,分类系统可用于对框510中的所访问的扩散梯度图像数据中的适当或给定神经元纤维进行分类和分割。如上文所讨论,可自动地执行分割。因此,可在框620中利用所调用的分类系统对示踪成像进行分类。基于经训练的分类系统,分类可类似于如上文所讨论的分类。
在纤维束的分类或分割之后,可在框630中输出属于给定神经元束的所分类或所分割的纤维束。输出可以是任何适当的输出,包括上文所讨论的那些。输出可包括所分割的神经元束的显示、所分割的神经元束的保存以用于附加分析,或其他适当的输出。
在各种实施方案中,可遵循第二或另选路径634。路径634涉及在框636中训练用于分割的机器学习系统。机器学习系统可包括人工神经网络,诸如卷积神经网络。框636中的ML训练可利用框514中的示踪成像的输入执行,并且可包括任选的参考图像配准。在各种附加或另选的实施方案中,训练ML还可包括来自框560的所计算特征。因此,在框636中训练ML可包括选定输入,如上文所讨论。因此,ML的训练还可导致框620中的纤维束的分割。
然后,方法500可在框634中输出和/或保存经训练的系统。在各种实施方案中,可更新或验证输出(诸如增加训练数据)和/或可因训练进度而确认或检查输出。因此,在框634中,经训练的系统可在选定时间和/或在系统被适当训练时保存或存储。
方法500可在框640中结束。过程500的结束可类似于如上文所讨论的过程200-400的结束。因此,来自框630的输出可用于帮助识别选定受检者(诸如受检者24)体内的适当纤维束。所分割的纤维束可用于帮助各种规程,诸如肿瘤的切除、设备的植入或其他适当的规程。因此,输出630可用于帮助执行规程和/或计划对选定受检者(诸如用于选定规程的人类受检者)的规程。
方法500可以是用于训练选定系统(诸如用于分割纤维束的分类或机器学习系统)的训练过程。然后可在选定时间使用训练系统来诸如根据如上文所讨论的方法分割纤维束。一般来讲,参考图6B,方法700可用于分割数据以分割纤维束。
分割方法700可类似于训练方法500,并且类似或相同的框将使用补充有上标符号(')的相同附图标号。然而,分割方法700可包括或利用经训练的系统来分割纤维束,如上文所讨论。因此,方法700可包括在框510'中访问扩散梯度图像。框510'中的所访问的梯度扩散图像可类似于如上文所讨论的那些。然后可处理所访问的梯度扩散图像以在框514'中确定所访问图像510'中的示踪成像。框514'中的示踪成像处理也可类似于如上文所讨论的示踪成像处理,包括用于识别在框510'中访问的图像内的束或可能束的各种示踪成像算法。根据与如上文所讨论的方法200-400一致的方法700,可在示踪成像中识别选定的特定纤维。
在方法700中,可对示踪成像进行各种处理,在框514'中的示踪成像处理之后或从该示踪成像处理可输出和/或访问处理后的图像数据。例如,在框520'中可生成定向编码颜色(DEC)分数各向异性(FA)映射。DEC/FA图像可包括根据通常已知技术基于所访问的图像数据识别的一个DEC/FA图像。另外,框524'中的B0掩模图像和框528'中的B0图像可被访问并应用于示踪成像处理。B0掩模和图像可包括其中不包括扩散信息的图像。此外,可包括框532'中的全脑示踪成像(WBT)的选定图像(例如,脑)示踪成像也可从示踪成像处理输出。
在框536'中,可将示踪成像输出任选地配准到一个或多个参考图像。如果配准,则还可利用DEC/FA变换所配准图像。在框536'中,到参考空间的配准可包括适当的缩放和空间变换。到参考空间的配准可允许确定所识别的图像示踪成像的定位或各种特征。
在各种实施方案中,分类系统可用于分割纤维束,因此,可遵循路径564'来计算框560'中的每条线的各种特征。这些特征可包括对各种束(其还可被称为线)的各种确定或分析,以用于对纤维束进行另外的分割和识别,如上文所讨论并且在本文中进一步讨论。例如,可确定沿着束线的点的数量和点的位置。可诸如相对于彼此并且根据相应点中的每个点确定点之间的每个线段的向量。可针对每个点确定或计算分数各向异性(FA)值。另外,可针对每个点计算或确定定向编码颜色信息。还可沿着束中的每个束计算每个点(诸如相邻点中的每个点)处的曲率。在各种实施方案中,还可识别或访问图谱诸如通常已知的脑图谱图像或模型,并且可进行与所识别束的结构的比较。适当的脑图谱可包括开源应用程序Freesurfer或FSL(由英国牛津大学的FMRIB团体创建)中所包括的那些。另外的计算可包括束在开始区域或点和/或结束区域或点之间的长度。因此,可针对图像中的束中的每个束测量或计算束的整个长度。
还可进行关于感兴趣区域子过程580'的输入。感兴趣区域子过程580'可类似于如上文所讨论的感兴趣区域子过程220。因此,可在框584'中访问解剖图像数据,并且可在框588'中标识各种区域,诸如开始区域和结束区域、解剖特征或结构等。各种特征的标识可包括包括有CNN的机器学习系统(诸如上文所讨论的机器学习系统)的应用。CNN可利用各种数据训练,并且经训练的CNN可用于识别所访问的图像数据(诸如在框584'中访问的图像数据)中的结构或区域。然而,ROI子过程580'可用于识别ROI以帮助确定或分割选定神经元纤维。来自子过程580'的输入可被包括和/或增强框560'中的所计算特征。
在框592'中,子过程580'还可访问或比较选定纤维束图谱。图谱可包括可用于在框514'的分割中分析或处理束的纤维束的模型。因此,子过程580'可利用选定纤维束图谱。
在分类系统中,可在框610'中调用经训练的分类系统。经训练的分类系统可包括适当的分类系统,诸如上文所讨论的包括随机力或其他适当的分类系统的那些。
经训练的分类系统可用于对框510中的所访问的扩散梯度图像数据中的适当或给定神经元纤维进行分类和分割。如上文所讨论,可自动地执行分割。因此,可在框620'中利用所调用的分类系统对示踪成像进行分类。基于经训练的分类系统,分类可类似于如上文所讨论的分类。
在纤维束的分类或分割之后,可在框630'中输出属于给定神经元束的所分类或所分割的纤维束。输出可以是任何适当的输出,包括上文所讨论的那些。输出可包括所分割的神经元束的显示、所分割的神经元束的保存以用于附加分析,或其他适当的输出。
在各种实施方案中,可遵循第二或另选路径634'。路径634'涉及框636'中的用于分割的经训练的机器学习系统。机器学习系统可包括人工神经网络,诸如卷积神经网络。框636'中的ML训练可利用框514'中的示踪成像的输入执行,并且可包括任选的参考图像配准。在各种附加或另选的实施方案中,训练ML还可包括来自框560'的所计算特征。因此,在框636'中训练ML可包括选定输入,如上文所讨论。因此,ML的训练还可导致框620'中的纤维束的分割。
方法700还可在框630'中提供输出。来自框630'的输出可用于帮助识别选定受检者(诸如受检者24)体内的适当纤维束。所分割的纤维束可用于帮助各种规程,诸如肿瘤的切除、设备的植入或其他适当的规程。在各种实施方案中,仪器可相对于纤维束进行导航。另外,可执行消融计划和跟踪。因此,输出630可用于帮助执行规程和/或计划对选定受检者(诸如用于选定规程的人类受检者)的规程。过程700然后还可在框640'中结束,类似于如上文所讨论的过程200-400的结束。
鉴于上述情况,选定系统可自动地分割所访问的扩散梯度图像数据中的适当或给定纤维束。在各种实施方案中,数据可以是与神经或神经丛相关的数据(例如,脑数据),并且因此,束还可被称为脑图像中的纤维神经元束。自动分割可由选定处理器模块执行以识别选定受检者体内的纤维束。可识别的纤维束可包括任何适当的纤维束,诸如视辐射、弓状束(AF)、上纵束(SLF)、皮质脊髓束(CST)、额斜束(FAT)、穹窿束、齿状红核丘脑束(DRT)或任何其他适当的束。然而,自动分割可允许最少或没有用户干预并且识别受检者体内的相关纤维束。
提供了示例性实施方案,使得本公开将是彻底的,并且将向本领域技术人员充分传达本公开的范围。阐述了许多具体细节,诸如特定部件、装置和方法的示例,以提供对本公开的实施方案的透彻理解。对于本领域技术人员显而易见的是,不需要采用特定细节,示例性实施方案可能以许多不同的形式体现,并且不应被解释为限制本公开的范围。在一些示例性实施方案中,未详细描述众所周知的过程、众所周知的装置结构和众所周知的技术。
在一个或多个示例中,描述的技术可在硬件、软件、固件或它们的任何组合中实现。如果在软件中实现,则功能可作为一个或多个指令或代码存储在计算机可读介质上并由基于硬件的处理单元执行。计算机可读介质可包括非暂态计算机可读介质,其对应于有形介质,诸如数据存储介质(例如,RAM、ROM、EEPROM、闪存存储器,或可用于存储指令或数据结构形式的期望程序代码并且可由计算机访问的任何其他介质)。
指令可由一个或多个处理器执行,诸如一个或多个数字信号处理器(DSP)、通用微处理器、图形处理单元(GPU)、专用集成电路(ASIC)、现场可编程逻辑阵列(FPGA)或其他等同的集成或离散逻辑电路。因此,如本文所用的术语“处理器”可指前述结构或适于实现所描述的技术的任何其他物理结构中的任一种。另外,本技术可在一个或多个电路或逻辑元件中完全实现。
出于说明和描述的目的,已经提供了对实施方案的前述描述。前述描述不旨在详尽无遗或限制本公开。特定实施方案的单独元件或特征通常不限于该特定实施方案,而是在适用的情况下,可互换并且也可以在选定实施方案中使用,即使未具体示出或描述。同一元件或特征可以多种方式变化。此类变化不应该被视为脱离本公开,并且所有此类修改旨在被包括在本公开的范围内。
应当理解,可将本文所公开的各个方面以与说明书和附图中具体给出的组合不同的组合进行组合。还应该理解,取决于示例,本文描述的任何过程或方法的某些动作或事件可以不同的顺序执行,可以完全添加、合并或省略(例如,执行所述技术可能不需要所有描述的动作或事件)。另外,尽管为清楚起见,本公开的某些方面被描述为由单个模块或单元执行,应当理解,本公开的技术可以通过与例如医疗设备相关联的单元或模块的组合来执行。
Claims (20)
1.一种用于分割图像中的给定神经元束的方法,包括:
访问选定数据;
评估所访问的选定数据以确定包括多个束的选定图像示踪成像;
利用所调用的经训练的人工神经网络确定相对于所访问的选定数据的选定感兴趣区域;
调用经训练的分类系统;
利用所调用的经训练的分类系统评估所述多个束中的至少子多个束;
至少基于所调用的经训练的人工神经网络确定所评估的子多个束中的至少一个束是否为给定纤维神经元束;以及
当所评估的多个束中的至少一个束被确定为所述给定纤维神经元束时,输出所述多个束中的至少一个束为所述给定纤维神经元束。
2.根据权利要求1所述的方法,其中所访问的选定数据包括扩散加权梯度图像。
3.根据权利要求2所述的方法,其中基于第一标准评估所访问的选定数据以确定包括所述多个束的所述选定图像示踪成像包括:
确定所述选定数据内水的各向异性;以及
基于所确定的各向异性确定通过所述选定数据中的图像的束。
4.根据权利要求1至3中任一项所述的方法,还包括:
将所确定的包括所述多个束的图像示踪成像与纤维神经元束的图谱进行比较。
5.根据权利要求1至4中任一项所述的方法,其中评估所述子多个束中的所有束包括以下中的至少一者:
确定沿着所述子多个束中的每个束的点;
评估所确定点中的每个点处的分数各向异性;
评估所确定点中的每个点处的扩散编码颜色;
确定从每个束的开始区域到每个束的结束区域的距离;以及
确定所述束在所确定点中的每个点处的曲率。
6.根据权利要求1至5中任一项所述的方法,还包括:
其中所调用的人工神经网络是卷积神经网络。
7.根据权利要求6所述的方法,还包括:
调用所述经训练的卷积神经网络;
访问解剖图像数据;以及
利用所调用的经训练的卷积神经网络确定所访问的图像数据中的至少一个感兴趣区域。
8.根据权利要求7所述的方法,其中利用所调用的经训练的卷积神经网络确定相对于所访问的选定数据的所述选定感兴趣区域包括:在受检者的所访问的选定数据中识别在所访问的图像数据中确定的所确定的至少一个感兴趣区域。
9.根据权利要求8所述的方法,其中所述至少一个感兴趣区域包括:所述给定纤维神经元束的开始区域或所述给定纤维神经元束的结束区域中的至少一者。
10.根据权利要求8所述的方法,还包括:
确定至少所述子多个束中与所确定的至少一个感兴趣区域相互作用的至少一个束;
其中评估所述多个束中的至少所述子多个束包括仅评估与所确定的感兴趣区域相互作用的所确定的至少一个束。
11.根据权利要求1至10中任一项所述的方法,还包括:
调用所述经训练的卷积神经网络;
访问解剖图像数据;以及
利用所调用的经训练的卷积神经网络确定所访问的图像数据中的至少一个感兴趣区域。
12.根据权利要求11所述的方法,其中利用所调用的经训练的人工神经网络确定相对于所访问的选定数据的所述选定感兴趣区域包括:在所访问的选定数据中识别来自所访问的图像数据的所确定的至少一个感兴趣区域。
13.根据权利要求12所述的方法,其中利用所调用的经训练的分类系统评估所述多个束中的至少所述子多个束包括:基于在所访问的图像数据中确定的所确定的至少一个感兴趣区域评估所述子多个束。
14.根据权利要求1至13中任一项所述的方法,其中所述给定纤维神经元束是皮质脊髓束、弓状束、上纵束、光辐射、视束、额斜束、齿状红核丘脑束、穹窿束、超直接束、钩束、内侧丘系束或它们的组合中的至少一者。
15.根据权利要求14所述的方法,其中所述给定纤维神经元束是额斜束、齿状红核丘脑束、超直接束和内侧丘系束中的至少一者。
16.一种被配置为分割受检者的图像中的给定神经元束的系统,包括:
处理器系统,所述处理器系统被配置为执行指令以:
访问受检者的选定数据;
基于第一标准评估所访问的选定数据以确定包括多个束的图像示踪成像;
利用所调用的经训练的卷积神经网络确定相对于所访问的选定数据的选定感兴趣区域;
调用经训练的分类系统;
利用所调用的经训练的分类系统评估所述多个束中的至少子多个束;
至少基于所调用的经训练的卷积神经网络确定所评估的子多个束中的至少一个束是否为给定纤维神经元束;
当所评估的多个束中的至少一个束被确定为所述给定纤维神经元束时,输出所述多个束中的至少一个束为所述给定纤维神经元束。
17.根据权利要求16所述的系统,还包括:
存储器系统,所述存储器系统被配置为存储所述指令。
18.根据权利要求16或17中任一项所述的系统,还包括:
显示设备,所述显示设备被配置为显示所述受检者的图像和所输出的给定纤维神经元束。
19.根据权利要求16至18中任一项所述的系统,还包括:
成像系统,所述成像系统被配置为获取所述受检者的扩散加权梯度图像。
20.根据权利要求16至19中任一项所述的系统,还包括:
导航系统,所述导航系统包括跟踪系统和跟踪设备;
其中仪器能够操作为在所述导航系统内相对于所输出的给定神经元束进行导航。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/862,882 | 2020-04-30 | ||
US16/862,882 US11682187B2 (en) | 2020-04-30 | 2020-04-30 | Method and apparatus to classify structures in an image |
PCT/US2021/029803 WO2021222506A1 (en) | 2020-04-30 | 2021-04-29 | Method and apparatus to classify structures in an image |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115461790A true CN115461790A (zh) | 2022-12-09 |
Family
ID=75977841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180031174.2A Pending CN115461790A (zh) | 2020-04-30 | 2021-04-29 | 用于对图像中的结构进行分类的方法和装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11682187B2 (zh) |
EP (1) | EP4143742A1 (zh) |
CN (1) | CN115461790A (zh) |
WO (1) | WO2021222506A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11682187B2 (en) * | 2020-04-30 | 2023-06-20 | Medtronic Navigation, Inc. | Method and apparatus to classify structures in an image |
US11508070B2 (en) | 2020-04-30 | 2022-11-22 | Medtronic Navigation, Inc. | Method and apparatus to classify structures in an image |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8532741B2 (en) | 2006-09-08 | 2013-09-10 | Medtronic, Inc. | Method and apparatus to optimize electrode placement for neurological stimulation |
US8340376B2 (en) * | 2008-03-12 | 2012-12-25 | Medtronic Navigation, Inc. | Diffusion tensor imaging confidence analysis |
WO2011011554A1 (en) * | 2009-07-21 | 2011-01-27 | The Regents Of The University Of California | Methods for the identification and targeting of brain regions and structures and treatments related thereto |
US8742754B2 (en) * | 2010-02-16 | 2014-06-03 | Board Of Regents Of The University Of Texas System | Method and system for diffusion tensor imaging |
WO2011106821A1 (en) * | 2010-03-03 | 2011-09-09 | Brain Research Institute Foundation Pty Ltd | Image processing system |
US9600138B2 (en) | 2013-03-15 | 2017-03-21 | Synaptive Medical (Barbados) Inc. | Planning, navigation and simulation systems and methods for minimally invasive therapy |
EP2967347B1 (en) | 2013-03-15 | 2023-09-06 | Synaptive Medical Inc. | Intramodal synchronization of surgical data |
WO2016007939A1 (en) | 2014-07-11 | 2016-01-14 | Psychology Software Tools, Inc. | Universal, modular temperature controlled mri phantom for calibrated anisotropic and isotropic imaging including hollow fluid filled tubular textiles for calibrated anisotropic imaging |
WO2016040260A1 (en) | 2014-09-09 | 2016-03-17 | The Trustees Of The University Of Pennsylvania | Edema invariant tractography |
US10062179B2 (en) | 2014-09-16 | 2018-08-28 | Brainlab Ag | Auto-calibration of probabilistic tracking parameters for DTI fibre tractography and compilation of tract probability comparison scales |
US10088544B2 (en) * | 2015-08-17 | 2018-10-02 | Siemens Healthcare Gmbh | Tractography framework with magnetic resonance imaging for brain connectivity analysis |
US11723579B2 (en) * | 2017-09-19 | 2023-08-15 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement |
US11717686B2 (en) * | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
EP3749973A4 (en) * | 2018-02-07 | 2021-11-03 | The Medical College of Wisconsin, Inc. | MULTI-RESOLUTION QUANTITATIVE SUSCEPTIBILITY MAPPING WITH MAGNETIC RESONANCE IMAGING |
US11188850B2 (en) | 2018-03-30 | 2021-11-30 | Derek Alexander Pisner | Automated feature engineering of hierarchical ensemble connectomes |
US11145119B2 (en) * | 2019-10-18 | 2021-10-12 | Omniscient Neurotechnology Pty Limited | Differential brain network analysis |
US11682187B2 (en) * | 2020-04-30 | 2023-06-20 | Medtronic Navigation, Inc. | Method and apparatus to classify structures in an image |
US11152123B1 (en) * | 2021-01-08 | 2021-10-19 | Omniscient Neurotechnology Pty Limited | Processing brain data using autoencoder neural networks |
-
2020
- 2020-04-30 US US16/862,882 patent/US11682187B2/en active Active
-
2021
- 2021-04-29 CN CN202180031174.2A patent/CN115461790A/zh active Pending
- 2021-04-29 WO PCT/US2021/029803 patent/WO2021222506A1/en unknown
- 2021-04-29 EP EP21726517.2A patent/EP4143742A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US11682187B2 (en) | 2023-06-20 |
US20210338172A1 (en) | 2021-11-04 |
WO2021222506A1 (en) | 2021-11-04 |
EP4143742A1 (en) | 2023-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11263772B2 (en) | Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure | |
EP2266097B1 (en) | Diffusion tensor imaging confidence analysis | |
EP3142589B1 (en) | A system and method for computer-assisted planning of trajectories for a surgical insertion into a skull | |
D'Haese et al. | Computer-aided placement of deep brain stimulators: from planningto intraoperative guidance | |
CN110807755A (zh) | 使用定位器图像进行平面选择 | |
CN109662778B (zh) | 基于三维卷积的人机交互式颅内电极定位方法与系统 | |
CN115461790A (zh) | 用于对图像中的结构进行分类的方法和装置 | |
Li et al. | BrainK for structural image processing: creating electrical models of the human head | |
CN113614781A (zh) | 用于标识图像中物体的系统和方法 | |
CN110136137A (zh) | 一种基于断层扫描图数据集进行血管区域分割的方法 | |
CN115552480A (zh) | 用于对图像中的结构进行分类的方法和装置 | |
CN115552479A (zh) | 用于对图像中的结构进行分类的方法和装置 | |
CN112950600A (zh) | 脑标识提取方法、装置、计算机设备和存储介质 | |
Hofmanis et al. | Automatic Depth Electrode Localization in Intracranial Space. | |
KR102442093B1 (ko) | 수술용 내비게이션 시스템에서의 표면 정합 개선 방법 | |
Durgadevi et al. | A Methodological Investigation for fetal brain MRI Segmentation Techniques-Analysis | |
CN110136096A (zh) | 一种基于断层扫描图数据集进行病变区域分割的方法 | |
Cai et al. | Accurate preoperative path planning with coarse-to-refine segmentation for image guided deep brain stimulation | |
JP2023525967A (ja) | 画像分析によって病変部の再発を予測するための方法 | |
US11786309B2 (en) | System and method for facilitating DBS electrode trajectory planning | |
Carrozzi et al. | Methods of diffusion MRI tractography for localization of the anterior optic pathway: A systematic review of validated methods | |
Sobhana et al. | Brachial Plexus Segmentation and Detection Through Ultrasound Image Analysis using Convolutional Neural Networks | |
EP4281929A1 (en) | Vessel shape | |
CN113302627A (zh) | 用于确定立体定向的脑部靶标的方法 | |
Ferrarini | Automated Shape Modeling and Analysis of Brain Ventricles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |