CN114532979A - 基于恒定荧光镜快照的配准几何形状重建 - Google Patents
基于恒定荧光镜快照的配准几何形状重建 Download PDFInfo
- Publication number
- CN114532979A CN114532979A CN202111413642.0A CN202111413642A CN114532979A CN 114532979 A CN114532979 A CN 114532979A CN 202111413642 A CN202111413642 A CN 202111413642A CN 114532979 A CN114532979 A CN 114532979A
- Authority
- CN
- China
- Prior art keywords
- fluoroscopic images
- coordinates
- body part
- neural network
- artificial neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 91
- 238000000034 method Methods 0.000 claims abstract description 44
- 230000004044 response Effects 0.000 claims abstract description 25
- 238000009877 rendering Methods 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 31
- 238000003384 imaging method Methods 0.000 claims description 18
- 238000007670 refining Methods 0.000 claims description 2
- 210000002216 heart Anatomy 0.000 description 17
- 238000002679 ablation Methods 0.000 description 15
- 210000001519 tissue Anatomy 0.000 description 13
- 210000005242 cardiac chamber Anatomy 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 11
- 238000013507 mapping Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 210000005003 heart tissue Anatomy 0.000 description 6
- 206010003119 arrhythmia Diseases 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000000523 sample Substances 0.000 description 5
- 210000003462 vein Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000006793 arrhythmia Effects 0.000 description 2
- 238000013529 biological neural network Methods 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000004520 electroporation Methods 0.000 description 2
- 238000010438 heat treatment Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000002427 irreversible effect Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 210000003492 pulmonary vein Anatomy 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 206010001497 Agitation Diseases 0.000 description 1
- 206010003658 Atrial Fibrillation Diseases 0.000 description 1
- 241000581364 Clinitrachus argentatus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 210000003050 axon Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 210000001787 dendrite Anatomy 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 210000001174 endocardium Anatomy 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 230000002964 excitative effect Effects 0.000 description 1
- 210000003191 femoral vein Anatomy 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000002847 impedance measurement Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004165 myocardium Anatomy 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 239000002858 neurotransmitter agent Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0071—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/25—Bioelectric electrodes therefor
- A61B5/279—Bioelectric electrodes therefor specially adapted for particular uses
- A61B5/28—Bioelectric electrodes therefor specially adapted for particular uses for electrocardiography [ECG]
- A61B5/283—Invasive
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
- A61B5/367—Electrophysiological study [EPS], e.g. electrical activation mapping or electro-anatomical mapping
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/486—Diagnostic techniques involving generating temporal series of image data
- A61B6/487—Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5294—Devices using data or image processing specially adapted for radiation diagnosis involving using additional data, e.g. patient information, image labeling, acquisition parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B2018/00315—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
- A61B2018/00345—Vascular system
- A61B2018/00351—Heart
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B2018/00571—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
- A61B2018/00577—Ablation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10064—Fluorescence image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Physiology (AREA)
- Cardiology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Otolaryngology (AREA)
- Computer Hardware Design (AREA)
- Fuzzy Systems (AREA)
- Signal Processing (AREA)
Abstract
在一个实施方案中,提供了一种用于生成三维(3D)解剖标测图的方法,该方法包括将经训练的人工神经网络应用于(a)活体受检者的身体部位的一组二维(2D)荧光镜图像,和(b)该组2D荧光镜图像的相应第一3D坐标,从而产生该3D解剖标测图的第二3D坐标,以及响应于第二3D坐标而将该3D解剖标测图渲染到显示器。
Description
相关申请信息
本申请要求2020年11月25日提交的美国临时专利申请序列号63/118,047的权益,该临时专利申请的公开内容据此以引用方式并入本文。
技术领域
本发明涉及医疗装置,并且具体地但并非排他性地涉及生成解剖标测图。
背景技术
大量的医疗手术涉及将探针诸如导管放置在患者体内。已经开发出位置感测系统来跟踪这类探针。磁性位置感测为本领域已知的一种方法。在磁性位置感测中,通常将磁场发生器放置在患者体外的已知位置处。探针的远侧端部内的磁场传感器响应于这些磁场生成电信号,这些电信号被处理以确定探针的远侧端部的坐标位置。这些方法和系统在美国专利5,391,199、6,690,963、6,484,118、6,239,724、6,618,612和6,332,089中、在PCT国际专利公布WO1996/005768中、以及在美国专利申请公布2002/0065455、2003/0120150和2004/0068178中有所描述。还可使用基于阻抗或电流的系统来跟踪位置。
心律失常的治疗是一种已证明其中这些类型的探针或导管极其有用的医疗手术。心律失常并且具体地讲心房纤颤一直为常见和危险的医学病症,在老年人中尤为如此。
心律失常的诊断和治疗包括标测心脏组织(尤其是心内膜)的电性质,以及通过施加能量来选择性地消融心脏组织。此类消融可停止或改变不需要的电信号从心脏的一个部分传播到另一部分。消融方法通过形成非导电消融灶来破坏不需要的电通路。已经公开了多种用于形成消融灶的能量递送形式,并且包括使用微波、激光和更常见的射频能量来沿心脏组织壁形成传导阻滞。在两步式手术(标测,之后进行消融)中,通常通过将包括一个或多个电传感器的导管推进到心脏中并采集多个点处的数据来感测和测量心脏内各个点处的电活动。然后利用这些数据来选择拟加以消融的心内膜目标区域。
电极导管已经普遍用于医疗实践多年。它们被用来刺激和标测心脏中的电活动,以及用来消融异常电活动的位点。使用时,将电极导管插入主静脉或动脉例如股静脉中,并且随后引导到所关注的心脏腔室中。典型的消融手术涉及将在其远侧端部具有一个或多个电极的导管插入心脏腔室中。可提供通常用胶带粘贴在患者的皮肤上的参比电极,或者可使用设置在心脏中或附近的第二导管来提供参比电极。RF(射频)电流被施加在消融导管的导管电极与无关电极(其可为导管电极中的一个电极)之间,并且电流流经这些电极之间的介质(即,血液和组织)。电流的分布可取决于与血液相比电极表面与组织接触的量,血液具有比组织更高的导电率。由于组织的电阻,发生组织的加热。组织被充分加热而致使心脏组织中的细胞破坏,从而导致在心脏组织内形成不导电的消融灶。在一些申请中,可进行不可逆电穿孔以消融组织。
心腔中的传感器可检测远场电活动,即,远离传感器发起的周围电活动,该远场电活动可扭曲或模糊局部电活动,即,在传感器处或附近发起的信号。授予Govari等人的共同转让的美国专利申请公布2014/0005664公开了区分由于与电极接触的组织而引起的心内电极信号中的局部分量与对信号的远场贡献,并且解释了可响应于所区分的局部分量而控制应用于组织的治疗过程。
发明内容
根据本公开的实施方案,提供了一种用于生成三维(3D)解剖标测图的方法,该方法包括将经训练的人工神经网络应用于(a)活体受检者的身体部位的一组二维(2D)荧光镜图像,和(b)该组2D荧光镜图像的相应第一3D坐标,从而产生限定3D解剖标测图的第二3D坐标,以及响应于这些第二3D坐标而将该3D解剖标测图渲染到显示器。
进一步根据本公开的实施方案,该组2D荧光镜图像仅包括两个2D荧光镜图像。
仍进一步根据本公开的实施方案,该组2D荧光镜图像包括身体部位的前后投影和身体部位的左前斜投影。
另外,根据本公开的实施方案,第二3D坐标包括以下中的一者或多者:3D网格的网格顶点,和3D点云。
此外,根据本公开的实施方案,该方法包括响应于从插入活体受检者的身体部位中的导管的电极接收到的信号来改进3D解剖标测图。
进一步根据本公开的实施方案,第一3D坐标和第二3D坐标处于相同坐标空间。
仍进一步根据本公开的实施方案,该方法包括训练人工神经网络以响应于训练数据而生成3D解剖标测图,该训练数据包括相应活体受检者的相应身体部位的多组2D荧光镜图像、该多组2D荧光镜图像的相应3D坐标以及该相应活体受检者的该相应身体部位的多个3D解剖标测图的相应3D坐标。
另外,根据本公开的实施方案,该方法包括将相应活体受检者的相应身体部位的多组2D荧光镜图像和该多组2D荧光镜图像的相应3D坐标输入人工神经网络中,以及迭代地调整人工神经网络的参数以减小人工神经网络的输出与期望输出之间的差异,该期望输出包括该多个3D解剖标测图的相应3D坐标。
此外,根据本公开的实施方案,该方法包括响应于从插入相应活体受检者的身体部位中的至少一个导管的电极接收到的信号而生成训练数据的多个3D解剖标测图。
进一步根据本公开的实施方案,该多组2D荧光镜图像中的每组2D荧光镜图像仅包括两个2D荧光镜图像。
仍进一步根据本公开的实施方案,该多组2D荧光镜图像包括相应身体部位的相应前后投影和相应左前斜投影。
根据本公开的另一实施方案,还提供了一种医疗系统,该医疗系统包括:荧光镜成像装置,该荧光镜成像装置被配置成捕获活体受检者的身体部位的一组二维(2D)荧光镜图像;显示器;和处理电路,该处理电路被配置成将经训练的人工神经网络应用于(a)活体受检者的身体部位的一组二维(2D)荧光镜图像,和(b)该组2D荧光镜图像的相应第一3D坐标,从而产生3D解剖标测图的第二3D坐标,以及响应于这些第二3D坐标而将该3D解剖标测图渲染到显示器。
另外,根据本公开的实施方案,该组2D荧光镜图像仅包括两个2D荧光镜图像。
此外,根据本公开的实施方案,该组2D荧光镜图像包括身体部位的前后投影和身体部位的左前斜投影。
进一步根据本公开的实施方案,第二3D坐标包括以下中的一者或多者:3D网格的网格顶点,和3D点云。
仍进一步根据本公开的实施方案,该系统包括导管,该导管包括电极并且被配置成被插入活体受检者的身体部位中,该处理电路被配置成响应于从导管的电极接收到的信号而改进3D解剖标测图。
另外,根据本公开的实施方案,第一3D坐标和第二3D坐标处于相同坐标空间。
此外,根据本公开的实施方案,荧光镜成像装置被配置成捕获相应活体受检者的相应身体部位的多组二维(2D)荧光镜图像,并且处理电路被配置成训练人工神经网络以响应于训练数据而生成3D解剖标测图,该训练数据包括相应活体受检者的相应身体部位的多组2D荧光镜图像、该多组2D荧光镜图像的相应3D坐标以及该相应活体受检者的该相应身体部位的多个3D解剖标测图的相应3D坐标。
进一步根据本公开的实施方案,该处理电路被配置成将相应活体受检者的相应身体部位的多组2D荧光镜图像和该多组2D荧光镜图像的相应3D坐标输入人工神经网络中,以及迭代地调整人工神经网络的参数以减小人工神经网络的输出与期望输出之间的差异,该期望输出包括该多个3D解剖标测图的相应3D坐标。
仍进一步根据本公开的实施方案,该系统包括至少一个导管,该至少一个导管包括电极并且被配置成被插入相应活体受检者的身体部位中,该处理电路被配置成响应于从插入相应活体受检者的身体部位中的该至少一个导管的电极接收到的信号而生成训练数据的多个3D解剖标测图。
另外,根据本公开的实施方案,该多组2D荧光镜图像中的每组2D荧光镜图像仅包括两个2D荧光镜图像。
此外,根据本公开的实施方案,该多组2D荧光镜图像包括相应身体部位的相应前后投影和相应左前斜投影。
根据本公开的又一个实施方案,还提供了一种软件产品,该软件产品包括非暂态计算机可读介质,在所述非暂态计算机可读介质中存储程序指令,这些指令在由中央处理单元(CPU)读取时使该CPU将经训练的人工神经网络应用于(a)活体受检者的身体部位的一组二维(2D)荧光镜图像,和(b)该组2D荧光镜图像的相应第一3D坐标,从而产生3D解剖标测图的第二3D坐标,以及响应于这些第二3D坐标而将该3D解剖标测图渲染到显示器。
附图说明
根据以下详细说明结合附图将理解本发明,其中:
图1为根据本发明的一个示例性实施方案构造和操作的医疗系统的示意图;
图2为包括训练用于图1的系统的人工神经网络的方法中的步骤的流程图;
图3为在图1的系统中训练的人工神经网络的示意图;
图4为包括训练用于图1的系统的人工神经网络的方法中的详细步骤的流程图;
图5为包括在图1的系统中应用经训练的人工神经网络的方法中的步骤的流程图;并且
图6为在图1的系统中应用的经训练的人工网络的示意图。
具体实施方式
概述
在使用导管进行心脏腔室标测之前,医师只会在手术期间使用荧光镜检测来引导导管。荧光镜检测的主要缺点是辐射的危险。然而,荧光镜检测确实具有一些优点,因为其提供了各种静脉和心脏跳动的视图。
因此,基于导管的标测通常用于基于围绕心脏腔室移动导管来标测心脏腔室以产生心脏的三维(3D)解剖标测图。可以使用基于磁性和/或阻抗的位置跟踪来跟踪导管而不使用荧光镜检测。然而,荧光镜检测可以例如用于正确地引入护套。另外,荧光镜图像可以与基于磁性和/或阻抗的位置跟踪配准,并且与所生成的3D标测图一起渲染到显示器。
尽管基于导管的标测具有优于荧光镜检测的许多优点,但是利用导管进行标测可能错过某些特征,诸如静脉,这是通过荧光镜检测观察到的。例如,一些人可能具有三个肺静脉,其他人可能具有四个肺静脉。医师可能会在移动导管时忽略第四条静脉,并创建没有第四条静脉的解剖标测图。
本发明的实施方案通过使用经训练的人工神经网络(ANN)根据身体部位(例如,心脏腔室)的两个二维(2D)荧光镜图像(例如,前后(AP)和左前斜(LAO)投影或任何合适的荧光镜图像投影对)生成初始3D解剖标测图来解决上述问题。然后可以通过在身体部位(例如,心脏腔室)周围移动导管来基于该基于导管的标测来细化初始3D解剖标测图。
在一些实施方案中,训练ANN以生成根据两个2D荧光镜图像(例如,前后(AP)和左前斜(LAO)投影或任何合适的荧光镜图像投影对)的3D解剖标测图和基于训练数据的2D荧光镜图像的相应3D坐标。训练数据包括:(a)作为ANN的输入的来自相应电生理(EP)程序的多组2D荧光镜图像和这些2D荧光镜图像的相应3D坐标;和(b)作为ANN的期望输出的从相应EP程序小心采集的基于导管的3D解剖标测图。在训练ANN期间,修正ANN的参数(例如,权重),使得ANN的输出接近给定限制内的期望输出。
荧光镜图像(在ANN的训练和应用期间使用)的坐标通常与基于磁性和/或阻抗的位置跟踪系统配准,使得可以根据已知的配准将ANN生成的3D解剖标测图渲染到显示器。因此,配准(即,荧光镜图像的坐标与3D解剖标测图的对应坐标)形成了训练过程的一部分。
一旦经过训练,ANN就接收两个2D荧光镜图像(例如,前后(AP)、左前斜(LAO)或任何合适的荧光镜图像投影对)和这两个2D荧光镜图像的相应3D坐标作为输入,并且输出具有基于磁性和/或阻抗的位置跟踪系统的坐标系中的坐标的3D解剖标测图。3D解剖标测图可以由3D网格的网格顶点或3D点云表示。例如,3D点云可用于生成封装网格,例如,使用合适的算法诸如“Marchingcubes”,该算法为由Lorensen和Cline在1987年SIGGRAPH会议记录中公布的一种计算机图形算法,用于从三维离散标量场中提取等值面的多边形网格。
系统描述
现在参考图1,该图为根据本发明的示例性实施方案构造和操作的医疗系统10的示意图。医疗系统10被配置成用于对活体受检者的心脏12执行导管插入手术,该导管插入手术根据本发明的公开的实施方案构造和操作。该系统包括导管14,其由操作者16经由皮肤穿过患者的血管系统插入心脏12的腔室或血管结构中。操作者16(通常为医师)使导管的远侧端部18在消融目标位点处与心脏壁接触。然后,可以使用位于控制台24中的处理电路22根据任何合适的方法(例如在美国专利6,226,542、6,301,496和6,892,091中公开的方法)来准备电激活标测图、解剖位置(即,导管14的远侧端部18的位置)信息和其他功能图像。一种包括系统10的元件的商品可以3系统购自Biosense Webster,Inc.(Irvine,CA,USA),其能够根据消融的需要产生心脏的电解剖标测图。此系统可由本领域的技术人员进行修改以实施本文所述的本发明的实施方案的原理。
例如,通过评估电激活标测图被确定为异常的区域可以通过应用热能来消融,例如,通过将射频电流通过导管14(或另一个导管)中的导线传导到在远侧端部18处的一个或多个电极21(为了简单起见,仅标记一些电极),这些电极将射频能量应用于心脏12的心肌。能量被吸收在组织中,从而将组织加热(或冷却)到组织永久性地失去其电兴奋性的点(通常为约60℃)。此手术成功后,会在心脏组织中形成非传导性的消融灶,这些消融灶可中断导致心律失常的异常电通路。本发明的原理可应用于不同的心室以治疗多种不同的心律失常。
导管14通常包括柄部20,该柄部上具有合适的控件,以使操作者16能够按标测和消融所需而对导管14的远侧端部18进行操纵、定位和取向。为了协助操作者16,导管14的远侧部分包含向处理电路22提供信号的位置传感器(未示出),该处理电路计算远侧端部18的位置。
消融能量和电信号可以经由缆线34在心脏12与控制台24之间来回传送。可通过缆线34和电极21将起搏信号和其他控制信号从控制台24传送到心脏12。
线连接件35将控制台24与体表电极30和定位子系统的其他部件连接在一起。电极21和体表电极30可用于测量消融部位处的组织阻抗,如美国专利7,536,218中所教导。
控制台24通常包含一个或多个消融功率发生器25。导管14可适于使用任何已知的消融技术将消融能量(例如,射频能量、不可逆电穿孔、超声波能量、冷冻技术和激光产生的光能)传导至心脏。此类方法公开于美国专利6,814,733、6,997,924和7,156,816中。
处理电路22可以是系统10中测量导管14的位置和取向坐标的定位子系统的元件。在一个实施方案中,定位子系统包括磁定位跟踪布置,该磁定位跟踪布置通过利用磁场生成线圈28在预定工作空间中生成磁场并感测导管14处的这些磁场来确定导管14的位置和取向。定位子系统可以采用阻抗测量,例如在美国专利7,756,576和美国专利7,536,218中所教导的。
荧光镜成像装置37具有C形臂39、x射线源41、图像增强器模块43和可调准直器45。可以位于控制台24中的控制处理器(未示出)允许操作者例如通过设置成像参数,并且控制准直器45以调整视场的大小和位置来控制荧光镜成像装置37的操作。控制处理器可以经由缆线51与荧光镜成像装置37通信以启用和禁用x射线源41,或通过控制准直器45将该x射线源的发射限制在期望的感兴趣区域,并且从图像增强器模块43获取图像数据。连接到控制处理器的任选的显示监视器49允许操作者16查看由荧光镜成像装置37产生的图像。当不包括显示监视器49时,可以通过分屏或与其他非荧光镜图像交替地在显示器29上查看荧光镜图像。
如上所述,导管14联接到控制台24,这使得操作者16能够观察并调控导管14的功能。处理电路22通常为具有适当信号处理电路的计算机。处理电路22被耦接以驱动显示器29。信号处理电路通常接收、放大、过滤并数字化来自导管14的信号,这些信号包括由上述传感器和位于导管14远端的电极21产生的信号。控制台24和定位子系统接收并使用数字化信号来计算导管14的位置和取向、分析来自电极21的电信号,并生成期望的电解剖标测图。
通常,系统10包括其他元件,但为简明起见未示出于附图中。例如,系统10可包括心电图(ECG)监视器,该心电图(ECG)监视器被耦接以接收来自一个或多个身体表面电极的信号,以便向控制台24提供ECG同步信号。如上所述,系统10通常还包括基准位置传感器,其或者位于附接在受检者身体外部的外部施加基准补片上,或者位于插入心脏12中并相对于心脏12保持在固定位置的内置导管上。提供了用于使液体循环穿过导管14以冷却消融位点的常规泵和管路。
荧光镜成像装置37通常与定位子系统的坐标空间31配准,该坐标空间与场生成线圈28和导管14的远侧端部18相关联。因此,由荧光镜成像装置37捕获的图像可以与定位子系统一起使用。例如,可以将导管14的远侧端部18的表示渲染到显示器29,叠加在由荧光镜成像装置37捕获的x射线图像上。
现在参考图2和图3。图2为包括训练用于图1的系统10的人工神经网络52的方法中的步骤的流程图100。图3为在图1的系统10中训练的人工神经网络52的示意图。
荧光镜成像装置37(图1)被配置成捕获(框102)相应活体受检者58的相应身体部位56的多组2D荧光镜图像54。该多组2D荧光镜图像54中的每组2D荧光镜图像与图像的3D坐标60相关联。例如,每个2D荧光镜图像可以包含在坐标空间内标识图像中的至少两个给定点(例如,图像的两个角,或图像的拐角和中心,或任何其他合适的点)的坐标。另选地,每个2D荧光镜图像可以包含标识图像中的一个给定点的坐标和图像在坐标空间中的取向。坐标可以由荧光镜成像装置37的控制器参考与坐标空间31配准的任何其他坐标空间的坐标空间31(图1)来提供。如果荧光镜成像装置37相对于坐标空间31固定,则不需要由荧光镜成像装置37的控制器针对该多组2D透视图像54中的每组2D透视图像供应该多组2D荧光镜图像54的3D坐标,因为该多组2D荧光镜图像54的3D坐标是医疗系统10已知的。
在一些实施方案中,该多组2D荧光镜图像54中的每组2D荧光镜图像仅包括两个2D荧光镜图像。这两个2D荧光镜图像通常为身体部位56的正交投影。在一些实施方案中,多组2D荧光镜图像54包括相应身体部位56的相应前后投影和相应左前斜投影,如图3所示。
对于每组2D荧光镜图像54,使用现在更详细地描述的基于导管的方法生成对应的解剖标测图62。至少一个导管(例如,导管14)包括电极(例如,电极21)并且被配置成被插入(框104)相应活体受检者58的身体部位56中。处理电路22被配置成接收(框106)来自导管(例如,导管14)的电极(例如,电极21)的信号。使导管小心地围绕身体部位56移动,以确保根据导管移动生成的标测图是准确的。处理电路22(图1)被配置成响应于从插入相应活体受检者58的身体部位56中的导管的电极接收到的信号而生成(框108)多个3D解剖标测图62作为人工神经网络52的训练数据。可以参考可包括3D网格的网格顶点和/或3D点云的相应3D坐标64来定义该多个3D解剖标测图62。
处理电路22被配置成训练(框110)人工神经网络52以响应于训练数据而生成3D解剖标测图,该训练数据包括:(a)相应活体受检者58的相应身体部位56的多组2D荧光镜图像54(由荧光镜成像装置37捕获);(b)该多组2D荧光镜图像54的相应3D坐标60;和(c)相应活体受检者58的相应身体部位56的多个3D解剖标测图62的相应3D坐标64。每组2D荧光镜图像54和该组2D荧光镜图像54的相应3D坐标60具有相关联的3D解剖标测图62(具有对应3D坐标64),其针对相应活体受检者58的相应身体部位56捕获。换句话说,训练数据包括一组2D荧光镜图像54、该组2D荧光镜图像54的相应3D坐标60以及活体受检者58中的每一者的身体部位的多个3D解剖标测图62中的一个3D解剖标测图的3D坐标64。身体部位56可以包括任何合适的身体部位,例如心脏腔室。用于训练人工神经网络52的身体部位56是相同类型的身体部位,例如心脏腔室。
现在参考图4,其为包括图2的框110的步骤中的详细子步骤的流程图。还参考图3。
神经网络是神经元的网络或电路,或者在现代意义上,是由人工神经元或节点组成的人工神经网络。生物神经元的连接被建模为权重。正权重反映兴奋性连接,而负值表示抑制性连接。通过权重修改输入并使用线性组合求和。激活函数可控制输出的振幅。例如,可接受的输出范围通常介于0和1之间,或者该范围可为-1和1之间。
这些人工网络可用于预测建模、自适应控制和应用,并且可经由数据集被训练。由经验产生的自学可发生在网络内,这可从复杂且看似不相关的信息组中得出结论。
为了完整起见,生物神经网络由一组或多组化学连接的或功能相关的神经元组成。单个神经元可被连接到许多其他神经元,并且网络中的神经元和连接的总数可以是广泛的。连接(称为突触)通常由轴突至枝状体形成,但树枝状突触和其他连接也是可能的。除了电信号之外,还存在由神经递质扩散引起的其他形式的信号。
人工智能、认知建模和神经网络是由生物神经系统处理数据的方式诱发的信息处理范式。人工智能和认知建模试图模拟生物神经网络的一些特性。在人工智能领域,人工神经网络已被成功地应用于语音识别、图像分析和自适应控制,以便(在计算机和视频游戏中)构建软件代理或自主机器人。
就被称为人工神经网络(ANN)或模拟神经网络(SNN)的人工神经元而言,神经网络(NN)是一组互连的天然或人工神经元,该神经网络基于计算的连接方法使用数学或计算模型进行信息处理。在大多数情况下,ANN是基于流动通过网络的外部或内部信息来改变其结构的自适应系统。更实际的术语神经网络为非线性统计数据建模或决策制定工具。这些术语神经网络可用于对输入和输出之间的复杂关系进行建模或在数据中找到模式。
在一些实施方案中,人工神经网络52包括完全连接的神经网络(例如,卷积神经网络)。在其他实施方案中,人工神经网络52可包括任何合适的ANN。人工神经网络52可包括由处理电路22(图1)执行的软件和/或被配置成执行人工神经网络52的功能的硬件模块。
人工神经网络52包括输入被接收到的输入层80,以及渐进地将输入处理至输出层84的一个或多个隐藏层82,从该输出层提供人工神经网络52的输出。人工神经网络52可包括人工神经网络52的层80、82、84之间的层权重。人工神经网络52根据人工神经网络52的层80、82、84之间的各个层权重的值来操纵在输入层80处接收到的数据。
在人工神经网络52的训练期间更新人工神经网络52的层权重,使得人工神经网络52执行人工神经网络52被训练执行的数据操纵任务。
人工神经网络52中的层的数量和层的宽度可以是可配置的。随着层的数量和层的宽度增加,人工神经网络52可根据手头的任务操纵数据的准确度也增加。然而,更大数量的层和更宽的层通常需要更多的训练数据、更多的训练时间,并且训练可能不会收敛。以举例的方式,输入层80可包括400个神经元(例如,以压缩一批400个样本),并且输出层也可包括400个神经元。
训练人工神经网络52通常是迭代过程。现在将在下文描述训练人工神经网络52的一种方法。处理电路22(图1)被配置成迭代地调整(框112)人工神经网络52的参数(例如,层权重)以减小人工神经网络52的输出与人工神经网络52的期望输出之间的差异。该期望输出包括多个3D解剖标测图62的相应3D坐标64。
现在在下文描述框112的步骤的子步骤。
处理电路22(图1)被配置成将相应活体受检者58的相应身体部位56的多组2D荧光镜图像54和该多组2D荧光镜图像54的相应3D坐标60输入(框114,箭头70)到人工神经网络中52的输入层80中。处理电路22被配置成将人工神经网络52的输出与期望输出(即,该多个3D解剖标测图62的对应相应3D坐标64)进行比较(框116,箭头72)。通常使用合适的损失函数进行该比较,该损失函数计算人工神经网络52的所有输出与所有期望输出(例如,所有相应多个3D解剖标测图62的3D坐标64)之间的总体差异。
在决策框118处,处理电路22(图1)被配置成确定人工神经网络52的输出与期望输出之间的差异是否足够小。如果人工神经网络52的输出与期望输出之间的差异足够小(分支120),则处理电路22被配置成保存(框122)经训练的人工神经网络52的参数(例如,权重),以用于应用该经训练的人工神经网络52,如参考图5和图6更详细地描述的。
如果差异不够小(分支124),处理电路22被配置成修正(框126)人工神经网络52的参数(例如,权重)以减小人工神经网络52的输出与人工神经网络52的期望输出之间的差异。在上述示例中被最小化的差异是人工神经网络52的所有输出与所有期望输出(例如,所有相应多个3D解剖标测图62的3D坐标64)之间的总体差异。处理电路22被配置成使用任何合适的优化算法(例如,梯度下降算法诸如Adam优化算法)来修正参数。然后重复框114-118的步骤。
现在参考图5和图6。图5为包括在图1的系统10中应用经训练的人工神经网络52的方法中的步骤的流程图200。图6为在图1的系统10中应用的经训练的人工网络52的示意图。
荧光镜成像装置37(图1)被配置成捕获(框202)活体受检者90的身体部位88的一组2D荧光镜图像86。在一些实施方案中,该组2D荧光镜图像86仅包括两个2D荧光镜图像。在一些实施方案中,该组2D荧光镜图像86包括身体部位88的前后(AP)投影和身体部位86的左前斜投影(LAO),或任何其他合适的投影对。身体部位88可以为任何合适的身体部位,例如心脏腔室。
处理电路22(图1)被配置成将经训练的人工神经网络52应用于(框204):(a)活体受检者90的身体部位88的一组2D荧光镜图像86;和(b)该组2D荧光镜图像86的相应3D坐标96,从而产生3D解剖标测图94的3D坐标92。在一些实施方案中,该组2D荧光镜图像86的3D坐标96和3D解剖标测图94的3D坐标92处于相同坐标空间,并且与上文参考图1描述的定位子系统的坐标空间配准(例如,图1的坐标空间31)。3D解剖标测图94的3D坐标92可包括3D网格的网格顶点和/或3D点云。
处理电路22被配置成响应于3D坐标92而将3D解剖标测图94渲染(框206)到显示器29(图1)。
导管14(图1)被配置成被插入(框208)进入活体受检者90的身体部位88中并且围绕身体部位88移动,以便经由电极21采集信号(图1)来校正和改进3D解剖标测图94。处理电路22被配置成接收(框210)来自导管14的电极21的信号。处理电路22被配置成响应于从导管14的电极21接收到的信号而改进(框212)3D解剖标测图94。
在实施过程中,处理电路22的功能中的一些或全部功能可以组合在单个物理部件中,或者另选地,使用多个物理部件来实现。这些物理部件可包括硬连线或可编程装置,或这两者的组合。在一些实施方案中,处理电路22的功能中的至少一些功能可以由可编程处理器在合适软件的控制下实施。该软件可以通过(例如)网络以电子形式下载到装置中。另选地或除此之外,该软件可以储存在有形的非暂态计算机可读存储介质中,诸如光学、磁或电子存储器。
如本文所用,针对任何数值或范围的术语“约”或“大约”指示允许部件或元件的集合实现如本文所述的其预期要达到的目的的合适的尺寸公差。更具体地,“约”或“大约”可指列举值的值±20%的范围,例如“约90%”可指72%至108%的值范围。
为清晰起见,在独立实施方案的上下文中描述的本发明的各种特征部也可在单个实施方案中组合提供。相反地,为简明起见,本发明的各种特征部在单个实施方案的上下文中进行描述,也可单独地或以任何合适的子组合形式提供。
上述实施方案以举例的方式被引用,并且本发明不受上文具体示出和描述的内容的限制。相反,本发明的范围包括上文描述的各种特征的组合和子组合以及它们的变型和修改,本领域的技术人员在阅读上述描述时将会想到该变型和修改,并且该变型和修改并未在现有技术中公开。
Claims (23)
1.一种用于生成三维(3D)解剖标测图的方法,包括:
将经训练的人工神经网络应用于:(a)活体受检者的身体部位的一组二维(2D)荧光镜图像;和(b)所述组2D荧光镜图像的相应第一3D坐标,从而产生限定3D解剖标测图的第二3D坐标;以及
响应于所述第二3D坐标而将所述3D解剖标测图渲染到显示器。
2.根据权利要求1所述的方法,其中所述组2D荧光镜图像仅包括两个2D荧光镜图像。
3.根据权利要求2所述的方法,其中所述组2D荧光镜图像包括所述身体部位的前后投影和所述身体部位的左前斜投影。
4.根据权利要求1所述的方法,其中所述第二3D坐标包括以下中的一者或多者:3D网格的网格顶点;和3D点云。
5.根据权利要求1所述的方法,还包括响应于从插入所述活体受检者的所述身体部位中的导管的电极接收到的信号来改进所述3D解剖标测图。
6.根据权利要求1所述的方法,其中所述第一3D坐标和所述第二3D坐标处于相同坐标空间。
7.根据权利要求1所述的方法,还包括训练所述人工神经网络以响应于训练数据而生成3D解剖标测图,所述训练数据包括:
相应活体受检者的相应身体部位的多组2D荧光镜图像;
所述多组2D荧光镜图像的相应3D坐标;和
所述相应活体受检者的所述相应身体部位的多个3D解剖标测图的相应3D坐标。
8.根据权利要求7所述的方法,还包括:
将相应活体受检者的相应身体部位的所述多组2D荧光镜图像和所述多组2D荧光镜图像的所述相应3D坐标输入所述人工神经网络中;以及
迭代地调整所述人工神经网络的参数以减小所述人工神经网络的输出与期望输出之间的差异,所述期望输出包括所述多个3D解剖标测图的所述相应3D坐标。
9.根据权利要求7所述的方法,还包括响应于从插入所述相应活体受检者的所述身体部位中的至少一个导管的电极接收到的信号而生成所述训练数据的多个3D解剖标测图。
10.根据权利要求7所述的方法,其中所述多组2D荧光镜图像中的每组2D荧光镜图像仅包括两个2D荧光镜图像。
11.根据权利要求10所述的方法,其中所述多组2D荧光镜图像包括所述相应身体部位的相应前后投影和相应左前斜投影。
12.一种医疗系统,包括:
荧光镜成像装置,所述荧光镜成像装置被配置成捕获活体受检者的身体部位的一组二维(2D)荧光镜图像;
显示器;和
处理电路,所述处理电路被配置成:
将经训练的人工神经网络应用于:(a)活体受检者的身体部位的一组二维(2D)荧光镜图像;和(b)所述组2D荧光镜图像的相应第一3D坐标,从而产生3D解剖标测图的第二3D坐标;以及
响应于所述第二3D坐标而将所述3D解剖标测图渲染到所述显示器。
13.根据权利要求12所述的系统,其中所述组2D荧光镜图像仅包括两个2D荧光镜图像。
14.根据权利要求13所述的系统,其中所述组2D荧光镜图像包括所述身体部位的前后投影和所述身体部位的左前斜投影。
15.根据权利要求12所述的系统,其中所述第二3D坐标包括以下中的一者或多者:3D网格的网格顶点;和3D点云。
16.根据权利要求12所述的系统,还包括导管,所述导管包括电极并且被配置成被插入所述活体受检者的所述身体部位中,所述处理电路被配置成响应于从所述导管的所述电极接收到的信号而改进所述3D解剖标测图。
17.根据权利要求12所述的系统,其中所述第一3D坐标和所述第二3D坐标处于相同坐标空间。
18.根据权利要求12所述的系统,其中:
所述荧光镜成像装置被配置成捕获相应活体受检者的相应身体部位的多组二维(2D)荧光镜图像;并且
所述处理电路被配置成训练所述人工神经网络以响应于训练数据而生成3D解剖标测图,所述训练数据包括:
相应活体受检者的相应身体部位的所述多组2D荧光镜图像;
所述多组2D荧光镜图像的相应3D坐标;和
所述相应活体受检者的所述相应身体部位的多个3D解剖标测图的相应3D坐标。
19.根据权利要求18所述的系统,其中所述处理电路被配置成:
将相应活体受检者的相应身体部位的所述多组2D荧光镜图像和所述多组2D荧光镜图像的所述相应3D坐标输入所述人工神经网络中;以及
迭代地调整所述人工神经网络的参数以减小所述人工神经网络的输出与期望输出之间的差异,所述期望输出包括所述多个3D解剖标测图的所述相应3D坐标。
20.根据权利要求18所述的系统,还包括至少一个导管,所述至少一个导管包括电极并且被配置成被插入所述相应活体受检者的所述身体部位中,所述处理电路被配置成响应于从插入所述相应活体受检者的所述身体部位中的所述至少一个导管的所述电极接收到的信号而生成所述训练数据的多个3D解剖标测图。
21.根据权利要求18所述的系统,其中所述多组2D荧光镜图像中的每组2D荧光镜图像仅包括两个2D荧光镜图像。
22.根据权利要求21所述的系统,其中所述多组2D荧光镜图像包括所述相应身体部位的相应前后投影和相应左前斜投影。
23.一种软件产品,包括非暂态计算机可读介质,在所述非暂态计算机可读介质中存储程序指令,所述指令在被中央处理单元(CPU)读取时致使所述CPU:
将经训练的人工神经网络应用于:(a)活体受检者的身体部位的一组二维(2D)荧光镜图像;和(b)所述组2D荧光镜图像的相应第一3D坐标,从而产生3D解剖标测图的第二3D坐标;以及
响应于所述第二3D坐标而将所述3D解剖标测图渲染到显示器。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063118047P | 2020-11-25 | 2020-11-25 | |
US63/118047 | 2020-11-25 | ||
US17/402922 | 2021-08-16 | ||
US17/402,922 US11694401B2 (en) | 2020-11-25 | 2021-08-16 | Reconstruction of registered geometry based on constant fluoroscopic snapshot |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114532979A true CN114532979A (zh) | 2022-05-27 |
Family
ID=79024463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111413642.0A Pending CN114532979A (zh) | 2020-11-25 | 2021-11-25 | 基于恒定荧光镜快照的配准几何形状重建 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11694401B2 (zh) |
EP (1) | EP4009283A1 (zh) |
JP (1) | JP2022084009A (zh) |
CN (1) | CN114532979A (zh) |
IL (1) | IL288120B1 (zh) |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5391199A (en) | 1993-07-20 | 1995-02-21 | Biosense, Inc. | Apparatus and method for treating cardiac arrhythmias |
CA2197986C (en) | 1994-08-19 | 2008-03-18 | Shlomo Ben-Haim | Medical diagnosis, treatment and imaging systems |
US6690963B2 (en) | 1995-01-24 | 2004-02-10 | Biosense, Inc. | System for determining the location and orientation of an invasive medical instrument |
US5588033A (en) | 1995-06-06 | 1996-12-24 | St. Jude Children's Research Hospital | Method and apparatus for three dimensional image reconstruction from multiple stereotactic or isocentric backprojections |
JP4072587B2 (ja) | 1996-02-15 | 2008-04-09 | バイオセンス・ウェブスター・インコーポレイテッド | 位置決定システム用の独立位置可能トランスデューサ |
WO1997029709A1 (en) | 1996-02-15 | 1997-08-21 | Biosense, Inc. | Medical procedures and apparatus using intrabody probes |
US6239724B1 (en) | 1997-12-30 | 2001-05-29 | Remon Medical Technologies, Ltd. | System and method for telemetrically providing intrabody spatial position |
US6226542B1 (en) | 1998-07-24 | 2001-05-01 | Biosense, Inc. | Three-dimensional reconstruction of intrabody organs |
US6301496B1 (en) | 1998-07-24 | 2001-10-09 | Biosense, Inc. | Vector mapping of three-dimensionally reconstructed intrabody organs and method of display |
US6892091B1 (en) | 2000-02-18 | 2005-05-10 | Biosense, Inc. | Catheter, method and apparatus for generating an electrical map of a chamber of the heart |
US6484118B1 (en) | 2000-07-20 | 2002-11-19 | Biosense, Inc. | Electromagnetic position single axis system |
US7729742B2 (en) | 2001-12-21 | 2010-06-01 | Biosense, Inc. | Wireless position sensor |
US6814733B2 (en) | 2002-01-31 | 2004-11-09 | Biosense, Inc. | Radio frequency pulmonary vein isolation |
US20040068178A1 (en) | 2002-09-17 | 2004-04-08 | Assaf Govari | High-gradient recursive locating system |
US6997924B2 (en) | 2002-09-17 | 2006-02-14 | Biosense Inc. | Laser pulmonary vein isolation |
US7156816B2 (en) | 2002-11-26 | 2007-01-02 | Biosense, Inc. | Ultrasound pulmonary vein isolation |
US7536218B2 (en) | 2005-07-15 | 2009-05-19 | Biosense Webster, Inc. | Hybrid magnetic-based and impedance-based position sensing |
US7756576B2 (en) | 2005-08-26 | 2010-07-13 | Biosense Webster, Inc. | Position sensing and detection of skin impedance |
US8634896B2 (en) | 2010-09-20 | 2014-01-21 | Apn Health, Llc | 3D model creation of anatomic structures using single-plane fluoroscopy |
US9554847B2 (en) | 2012-07-02 | 2017-01-31 | Biosense Webster (Israel) Ltd. | Real time assessment of ablation from electrocardiogram signals |
US9668699B2 (en) | 2013-10-17 | 2017-06-06 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
US9320474B2 (en) | 2014-02-07 | 2016-04-26 | Biosense Webster (Israel) Ltd. | Synchronizing between image sequences of the heart acquired at different heartbeat rates |
WO2017223560A1 (en) | 2016-06-24 | 2017-12-28 | Rensselaer Polytechnic Institute | Tomographic image reconstruction via machine learning |
LU101007B1 (en) * | 2018-11-26 | 2020-05-26 | Metamorphosis Gmbh | Artificial-intelligence based reduction support |
US11510627B2 (en) * | 2019-01-15 | 2022-11-29 | Apn Health, Llc | Cardiac catheter contact force determination |
US11748899B2 (en) * | 2019-02-07 | 2023-09-05 | Siemens Healthcare Gmbh | Dense body marker estimation from camera data for patient positioning in medical imaging |
US20200253667A1 (en) * | 2019-02-08 | 2020-08-13 | Stryker Corporation | Systems and methods for treating a joint |
WO2021030536A1 (en) * | 2019-08-13 | 2021-02-18 | Duluth Medical Technologies Inc. | Robotic surgical methods and apparatuses |
-
2021
- 2021-08-16 US US17/402,922 patent/US11694401B2/en active Active
- 2021-11-15 IL IL288120A patent/IL288120B1/en unknown
- 2021-11-24 JP JP2021189971A patent/JP2022084009A/ja active Pending
- 2021-11-24 EP EP21210115.8A patent/EP4009283A1/en active Pending
- 2021-11-25 CN CN202111413642.0A patent/CN114532979A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220165028A1 (en) | 2022-05-26 |
IL288120B1 (en) | 2024-03-01 |
US11694401B2 (en) | 2023-07-04 |
EP4009283A1 (en) | 2022-06-08 |
IL288120A (en) | 2022-06-01 |
JP2022084009A (ja) | 2022-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3795078A1 (en) | Guiding cardiac ablation using machine learning (ml) | |
KR20190027326A (ko) | 메시 피팅 알고리즘 | |
EP3960074A1 (en) | Method and system for removing noise from cardiac signals | |
CN116138874A (zh) | 具有实时电描记图叠加的标测系统 | |
US11694401B2 (en) | Reconstruction of registered geometry based on constant fluoroscopic snapshot | |
JP2022048128A (ja) | 局所興奮時間解析システム | |
US12004862B2 (en) | Removing far-field from intracardiac signals | |
EP3960084B1 (en) | Removing far-field from intracardiac signals | |
US20220183748A1 (en) | Accurate tissue proximity | |
EP4122413A1 (en) | Accurate tissue proximity | |
US20230309853A1 (en) | Noise in electro-anatomic signals | |
US20230042941A1 (en) | Graphical user interface template for reducing setup time of electrophysiological procedures | |
US20220395214A1 (en) | Wave propagation control enhancement | |
US20220387099A1 (en) | Automatic anatomical feature identification and map segmentation | |
EP3991658A1 (en) | Recording apparatus noise reduction | |
WO2024116002A1 (en) | Assessment of tissue ablation using intracardiac ultrasound catheter | |
IL293942A (en) | Improving the resolution in the mapping of an electrophysiological wave (ep) propagating on the surface of a patient's heart |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |