CN116211351A - 一种基于三维影像的前列腺追踪方法 - Google Patents
一种基于三维影像的前列腺追踪方法 Download PDFInfo
- Publication number
- CN116211351A CN116211351A CN202211419161.5A CN202211419161A CN116211351A CN 116211351 A CN116211351 A CN 116211351A CN 202211419161 A CN202211419161 A CN 202211419161A CN 116211351 A CN116211351 A CN 116211351A
- Authority
- CN
- China
- Prior art keywords
- image
- prostate
- moving image
- point set
- voxel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/085—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/12—Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5207—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
- A61B2017/3413—Needle locating or guiding means guided by ultrasound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Vascular Medicine (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本发明公开了一种基于三维影像的前列腺追踪方法,包括步骤:获取患者前列腺的三维影像作为基础影像,并在其上得到患者的前列腺轮廓、病灶轮廓及穿刺路径;获取患者移动后前列腺的三维影像作为移动影像,并将其与基础影像进行配准得到二者的变换关系,并据此得到在移动影像中患者的前列腺轮廓、病灶轮廓及穿刺路径。本发明可以自动追踪前列腺轮廓、病灶轮廓以及穿刺路径等信息,实现针对患者移动情况下的动态精准穿刺,保证穿刺的正常进展,同时减少了患者的风险。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于三维影像的前列腺追踪方法。
背景技术
近年来,前列腺癌的发病率逐年上升,每年都会有大量的穿刺手术用于前列腺癌的诊断。目前手术机器人已经大规模应用到前列腺手术中,手术机器人具有精准定位、手术规划、精准成像等功能,能大幅减少手术中医生所受辐射伤害和感染风险。
在执行过程中,医生需要得到前列腺的组织结构信息及病灶位置形态,因此需要使用机器人的经直肠超声探头实时获取患者的前列腺图像3D影像,然后手动勾勒前列腺和病灶轮廓,接着根据病灶轮廓手动确定病灶位置并进行穿刺执行,该过程中医生需要根据凭借经验确定进针路线。此外,为了提高检出率还需要多次进针获取足够多的组织。在执行过程中,经常会出现患者身体发生移动的情况,这会导致穿刺点位置发生偏移,如果继续用之前得到的穿刺路径最终可能无法达到病灶位置,医生则需要重复勾勒前列腺和病灶轮廓,以及重新规划穿刺点以及穿刺路径,整个过程即复杂又耗时,并且有可能会对某个区域重复穿刺,这不仅仅增加了穿刺的难度,同时也增加了患者的风险,影响穿刺执行的正常进展。
发明内容
发明目的:本发明针对上述不足,提出一种三维影像的前列腺追踪方法,可以根据前列腺三维影像,自动追踪前列腺轮廓、病灶轮廓以及穿刺路径等信息,实现针对患者移动情况下的动态精准穿刺。
技术方案:
一种基于三维影像的前列腺追踪方法,包括步骤:
获取患者前列腺的三维影像作为基础影像,并在其上得到患者的前列腺轮廓、病灶轮廓及穿刺路径;
获取患者移动后前列腺的三维影像作为移动影像,并将其与基础影像进行配准得到二者的变换关系,并据此得到在移动影像中患者的前列腺轮廓、病灶轮廓及穿刺路径。
所述配准具体为:
随机选取移动影像中若干体素点构建第一点集;
遍历基础影像中所有体素点,得到与第一点集相似性最大的第二点集,其中两点集的相似性根据其内各对应体素点的体素值计算得到;
对第一点集和第二点集进行配准得到二者的变换矩阵,将其作为移动影像与基础影像之间的变换关系。
所述配准还包括分割步骤:
通过图像分割算法分别分割得到移动影像和基础影像中的前列腺区域,据此得到两影像中前列腺区域的体素点集;
随机选取移动影像前列腺区域的体素点集中的若干体素点构建第一点集,并在基础影像前列腺区域的体素点集中进行遍历选取第二点集。
所述图像分割算法采用AI 3D分割算法。
所述两点集的相似性根据其内各对应体素点的体素值的差方误差或二者体素值的均方误差计算得到。
所述第一点集和第二点集的配准为最小二乘法计算使得二者之间位置误差最小的变换矩阵。
在得到所述第一点集和第二点集的变换矩阵后,判断二者之间的位置误差是否小于设定阈值,若小于,则将其作为移动影像与基础影像之间的变换关系;若不小于,则重新进行配准,直至配准次数达到设定数量,并将之前配准中的最小位置误差对应的变换矩阵作为移动影像与基础影像的变换关系。
在所述配准前还包括影像调整步骤:
根据移动影像和基础影像在影像坐标系中的姿态得到二者之间的姿态变换矩阵,据此对移动影像或基础影像进行姿态调整;
对移动影像或基础影像中尺寸缺失处的数据进行插值,使得两影像尺寸一致。
所述三维影像为三维超声影像。
有益效果:本发明通过分别采集患者移动前后的三维影像,并对两个影像进行配准计算二者的变形场,从而可以根据患者移动前的三维影像中得到的前列腺轮廓、病灶轮廓及穿刺路径等信息计算得到患者移动后的三维影像中的前列腺轮廓、病灶轮廓及穿刺路径等信息,从而可以完成前列腺追踪,实现针对患者移动情况下的动态精准穿刺,保证穿刺的正常进展,同时减少了患者的风险。
附图说明
图1为本发明前列腺追踪方法的流程图;
图2为患者移动前的基础影像示意图;
图3为患者移动后的移动影像示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本文提供一种基于三维影像的前列腺追踪方法,该方法的实现步骤如下:
(1)获取患者前列腺的三维影像,作为患者移动前的基础影像,医生在患者的基础影像上勾勒得到前列腺轮廓,据此得到病灶位置(也即病灶轮廓),根据病灶位置计算出穿刺路径。本发明中,获取的是患者前列腺的三维超声影像。
(2)在患者发生移动后,获取患者前列腺的三维影像,作为患者移动后的移动影像,并将对移动影像或基础影像进行调整;
在患者发生移动后,穿刺路径发生改变,此时需要二次获取患者的前列腺三维影像,由于患者移动后的体位、超声探头的角度和位移偏差等因素,移动影像和基础影像存在一定差异,如图2和图3所示。
考虑到患者移动前后获取的图像的姿态和尺寸无法保持一致,如患者体位发生变化或采集得到患者三维影像区域与基础影像不一致,因此我们需要对移动图像的姿态和尺寸进行调整以完成二者的粗配准,使其与基础影像的姿态和尺寸保持一致,包括图像姿态调整和图像尺寸调整,具体如下:
图像姿态调整:三维超声影像的数据类型为DICOM协议(Digital Imaging andCommunications in Medicine),在DICOM协议中Image Metadata Orientation表示患者体位,患者的体位分别对应不同旋转矩阵,图像姿态调整的目地就是将基础影像和移动影像的位姿统一,可以将基础影像的姿态调整到移动影像,也可以将移动影像的姿态调整到基础影像。例如移动影像在影像坐标系的姿态矩阵为M0,体素坐标为[x0,y0,z0];基础影像在影像坐标系的姿态矩阵为M1,体素坐标为[x1,y1,z1],则若对移动影像进行旋转变换,变换公式如下:
图像尺度调整:由于移动影像和基础影像尺寸有可能不同,而图像配准算法需要将两种影像尺寸保持一致,因此需要将移动影像的数据进行插值,插值后的影像尺寸与基础影像保持一致,常用的插值方法有最邻近插值、线性插值等等;本发明中,有可能移动影像的尺寸更大,而相对来说基础影像相比于移动影像存在数据缺失,因此也可以对基础影像进行插值。
(3)利用影像配准算法计算得到移动影像与基础影像之间的变形场(即变换关系),该变形场是指从移动影像到基础影像之间的旋转平移变换;
本发明提供的实施例一的步骤如下:
(31)设经步骤(2)调整后的移动影像中所有体素点的坐标集合为Rmove={p1,…,pm},其中各体素点的体素值为Vmove={v1,…,vm};基础影像所有体素点的坐标集合为Rfix={p′1,…,p′m},其中各体素点的体素值为Vfix={v′1,…,v′m}。
(32)从调整后的移动影像中随机选择n个体素点得到点集P={p1,…,pn},点集中各点对应的体素值为VP={v1,…,vn}。
(33)遍历基础影像中所有体素点,选择其中与点集P最相似的点集P′={p′1,…,p′n},其中两个点集的相似性通过其中对应体素点的相似性进行判断,即分别选择基础影像中与点集P中各体素点的体素值最接近的体素点作为其最大相似点,从而得到对应的最相似的点集;两体素点的相似性通过二者体素值的差方误差进行评估,例如与点集P中第j个点最相似的体素点p′j可表示为:
其中,i表示集合Rfix中第i个像素点;
在本发明中,两体素点的相似性还可以按照二者体素值的均方误差MSE进行评估,二者体素值的均方误差MSE越小,相似度越高;例如第j个点pj′的MSE可表示为:
(34)计算点集P和P′之间误差L最小的变换矩阵T,其中第i对点误差Ei为:Ei=pi-(T×pi′),本发明采用最小二乘算法原理,计算使得误差L最小的矩阵T,如下式:
(35)利用步骤(34)得到的变换矩阵T将移动影像所有体素点的坐标集合Rmove转换为R′move=T×Rmove,并将R′move替换Rmove,迭代次数加1;
(36)重复步骤(32)~(35),直到满足终止迭代的条件,其中终止迭代条件可以为迭代次数大于设定数量或误差L小于设定阈值;其中,若得到误差L小于设定阈值,则以该误差L对应的变换矩阵作为最终两影像的变换关系;若达到终止迭代时,误差L不小于设定阈值,则以之前迭代过程中的最小误差L对应的变换矩阵作为最终两影像的变换关系。
本发明还提供了实施例二,该实施例中步骤(32)与实施例一不同,本实施例是利用图像分割算法分别对移动影像和基础影像中前列腺区域进行分割,获取基础影像和经步骤(2)调整后的移动影像中前列腺区域的体素点的坐标集合Qmove和Qfix,本发明中的图像分割算法采用AI 3D分割算法;然后从集合Qmove中随机选择n个点P={p1,…,pn},点集对应的体素值为VP={v1,…,vn},后续步骤中是遍历集合Qfix中所有体素点,并得到与点集P最相似的点集P′={p′1,…,p′n};
在本发明中,可以无需经步骤(2)对移动影像进行调整,直接通过步骤(3)计算移动影像与基础影像之间的变换矩阵。本发明增加步骤(2)的调整可以使得后续计算变换矩阵时的计算量大大减小,从而更快地完成前列腺追踪。
(4)根据步骤(1)获取基础影像中的前列腺轮廓、病灶轮廓和穿刺路径等信息,利用步骤(3)中得到的变换矩阵T,对该些信息进行变换,即可得到移动影像中的前列腺轮廓、病灶轮廓和穿刺路径等信息,即可实现前列腺追踪。
本发明通过分别采集患者移动前后的三维影像,并对两个影像进行配准计算二者的变形场,从而可以根据患者移动前的三维影像中得到的前列腺轮廓、病灶轮廓及穿刺路径等信息计算得到患者移动后的三维影像中的前列腺轮廓、病灶轮廓及穿刺路径等信息,从而可以完成前列腺追踪,实现针对患者移动情况下的动态精准穿刺,保证穿刺的正常进展,同时减少了患者的风险。
以上详细描述了本发明的优选实施方式,但是本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换(如数量、形状、位置等),这些等同变换均属于本发明的保护范围。
Claims (9)
1.一种基于三维影像的前列腺追踪方法,其特征在于:包括步骤:
获取患者前列腺的三维影像作为基础影像,并在其上得到患者的前列腺轮廓、病灶轮廓及穿刺路径;
获取患者移动后前列腺的三维影像作为移动影像,并将其与基础影像进行配准得到二者的变换关系,并据此得到在移动影像中患者的前列腺轮廓、病灶轮廓及穿刺路径。
2.根据权利要求1所述的前列腺追踪方法,其特征在于:所述配准具体为:
随机选取移动影像中若干体素点构建第一点集;
遍历基础影像中所有体素点,得到与第一点集相似性最大的第二点集,其中两点集的相似性根据其内各对应体素点的体素值计算得到;
对第一点集和第二点集进行配准得到二者的变换矩阵,将其作为移动影像与基础影像之间的变换关系。
3.根据权利要求2所述的前列腺追踪方法,其特征在于:所述配准还包括分割步骤:
通过图像分割算法分别分割得到移动影像和基础影像中的前列腺区域,据此得到两影像中前列腺区域的体素点集;
随机选取移动影像前列腺区域的体素点集中的若干体素点构建第一点集,并在基础影像前列腺区域的体素点集中进行遍历选取第二点集。
4.根据权利要求3所述的前列腺追踪方法,其特征在于:所述图像分割算法采用AI 3D分割算法。
5.根据权利要求2~4任一所述的前列腺追踪方法,其特征在于:所述两点集的相似性根据其内各对应体素点的体素值的差方误差或二者体素值的均方误差计算得到。
6.根据权利要求2~4任一所述的前列腺追踪方法,其特征在于:所述第一点集和第二点集的配准为最小二乘法计算使得二者之间位置误差最小的变换矩阵。
7.根据权利要求6所述的前列腺追踪方法,其特征在于:在得到所述第一点集和第二点集的变换矩阵后,判断二者之间的位置误差是否小于设定阈值,若小于,则将其作为移动影像与基础影像之间的变换关系;若不小于,则重新进行配准,直至配准次数达到设定数量,并将之前配准中的最小位置误差对应的变换矩阵作为移动影像与基础影像的变换关系。
8.根据权利要求1所述的前列腺追踪方法,其特征在于:在所述配准前还包括影像调整步骤:
根据移动影像和基础影像在影像坐标系中的姿态得到二者之间的姿态变换矩阵,据此对移动影像或基础影像进行姿态调整;
对移动影像或基础影像中尺寸缺失处的数据进行插值,使得两影像尺寸一致。
9.根据权利要求1所述的前列腺追踪方法,其特征在于:所述三维影像为三维超声影像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211419161.5A CN116211351A (zh) | 2022-11-14 | 2022-11-14 | 一种基于三维影像的前列腺追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211419161.5A CN116211351A (zh) | 2022-11-14 | 2022-11-14 | 一种基于三维影像的前列腺追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116211351A true CN116211351A (zh) | 2023-06-06 |
Family
ID=86573706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211419161.5A Pending CN116211351A (zh) | 2022-11-14 | 2022-11-14 | 一种基于三维影像的前列腺追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116211351A (zh) |
-
2022
- 2022-11-14 CN CN202211419161.5A patent/CN116211351A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106934821B (zh) | 一种基于icp算法和b样条的锥形束ct和ct图像配准方法 | |
CN112184781A (zh) | 超声图像和ct图像的配准方法、装置及设备 | |
CN106485695A (zh) | 基于统计形状模型的医学图像Graph Cut分割方法 | |
CN112614169B (zh) | 基于深度学习网络的2d/3d脊椎ct层级配准方法 | |
EP3788596B1 (en) | Lower to higher resolution image fusion | |
WO2007134447A1 (en) | Methods and systems for segmentation using boundary reparameterization | |
Penney et al. | A stochastic iterative closest point algorithm (stochastICP) | |
CN111640143A (zh) | 一种基于PointNet的神经导航快速面配准方法及系统 | |
CN112509022A (zh) | 一种术前三维影像与术中透视图像的无标定物配准方法 | |
CN113570627A (zh) | 深度学习分割网络的训练方法及医学图像分割方法 | |
CN115578320A (zh) | 一种骨科手术机器人全自动空间注册方法及系统 | |
CN116363181A (zh) | 一种基于特征的ct图像和超声图像肝脏配准方法 | |
CN118037794B (zh) | 多模态多体位医学影像的智能配准系统 | |
CN114792326A (zh) | 一种基于结构光的手术导航点云分割与配准方法 | |
CN116883471A (zh) | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 | |
CN112308764A (zh) | 图像配准方法及装置 | |
CN115526929A (zh) | 基于图像的配准方法和装置 | |
CN112617877B (zh) | 移动ct系统的自主扫描方法、存储介质和ct扫描装置 | |
CN116211351A (zh) | 一种基于三维影像的前列腺追踪方法 | |
CN116612166A (zh) | 一种多模态影像的配准融合算法 | |
CN115005864B (zh) | 基于电磁定位的超声探头标定方法 | |
CN114782504A (zh) | 一种组织器官图像空间配准方法 | |
CN115239751A (zh) | 一种术后影像针道提取方法 | |
CN113920177A (zh) | 一种三维影像迭代配准方法 | |
CN112884765A (zh) | 一种基于轮廓特征的2d图像与3d图像配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |