CN115965667A - 介入手术的组织结构模型数据融合的方法和装置 - Google Patents
介入手术的组织结构模型数据融合的方法和装置 Download PDFInfo
- Publication number
- CN115965667A CN115965667A CN202211729672.7A CN202211729672A CN115965667A CN 115965667 A CN115965667 A CN 115965667A CN 202211729672 A CN202211729672 A CN 202211729672A CN 115965667 A CN115965667 A CN 115965667A
- Authority
- CN
- China
- Prior art keywords
- data
- real
- deformation field
- time data
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000004927 fusion Effects 0.000 title claims abstract description 44
- 238000013152 interventional procedure Methods 0.000 claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 8
- 238000007667 floating Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013075 data extraction Methods 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims 1
- 230000000306 recurrent effect Effects 0.000 claims 1
- 230000033001 locomotion Effects 0.000 abstract description 32
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 210000004204 blood vessel Anatomy 0.000 description 5
- 230000006378 damage Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 description 4
- 101150064138 MAP1 gene Proteins 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002697 interventional radiology Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000002560 therapeutic procedure Methods 0.000 description 2
- 238000012285 ultrasound imaging Methods 0.000 description 2
- 208000019553 vascular disease Diseases 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 208000002251 Dissecting Aneurysm Diseases 0.000 description 1
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 1
- 206010061902 Pancreatic neoplasm Diseases 0.000 description 1
- 208000031481 Pathologic Constriction Diseases 0.000 description 1
- 206010046798 Uterine leiomyoma Diseases 0.000 description 1
- 208000002223 abdominal aortic aneurysm Diseases 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 208000007474 aortic aneurysm Diseases 0.000 description 1
- 206010002895 aortic dissection Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 208000026106 cerebrovascular disease Diseases 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 208000031169 hemorrhagic disease Diseases 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 201000007270 liver cancer Diseases 0.000 description 1
- 201000005202 lung cancer Diseases 0.000 description 1
- 208000020816 lung neoplasm Diseases 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 208000015486 malignant pancreatic neoplasm Diseases 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 201000002528 pancreatic cancer Diseases 0.000 description 1
- 208000008443 pancreatic carcinoma Diseases 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 208000007232 portal hypertension Diseases 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 239000012857 radioactive material Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 208000037804 stenosis Diseases 0.000 description 1
- 230000036262 stenosis Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
本申请提出一种介入手术的组织结构模型数据融合的方法和装置,包括:确定进行组织结构模型数据融合的区域;根据所述区域,提取所述区域对应待生成融合模型的数据;其中,所述待生成融合模型的数据包括预制数据和/或实时数据;将所述预制数据和/或所述实时数据进行匹配,生成形变场;根据生成所述形变场的数据,生成用于介入手术的融合模型。本专利避免了现有技术存在的不能将术前的预制数据与实时数据同时使用辅助介入器械在人体内运动,进而达到综合多种数据,使得介入器械可以准确地在人体内运动。
Description
技术领域
本申请涉及医疗设备领域,尤其涉及一种介入手术的组织结构模型数据融合的方法和装置。
背景技术
介入治疗学是介入放射学的重要部分,它以影像诊断为基础,通过医学影像设备的引导,利用导管、穿刺针和其他介入器材,以达到治疗疾病的目的。
介入治疗涉及范围广,可以用来治疗血管性疾病,包括动静脉狭窄及闭塞性疾病、主动脉夹层、腹主动脉瘤、急性动脉出血性疾病、门脉高压、颅内血管疾病以及非血管性疾病,包括良、恶性肿瘤的治疗、原发性肝癌、肺癌、胰腺癌、子宫肌瘤等。
介入治疗相比外科手术大大降低了手术危险以及对器官、组织的损伤程度,达到局部治疗的目的。
现有技术存在如下技术问题:
1、术前的预制数据与实时数据融合困难。不同时间节点、不同设备采集、表征得到的相同组织结构处于不同的表征方式、不同的时间序列、不同的相位,无法统一融合,生成高准确度的融合模型。进而无法给手术医生提供兼具实时性和准确度的融合模型,以供医生根据融合模型引导操作介入器械在人体内运动,实现精准治疗。
2、基于学习的方法,学习每像素分类模型来检测血管结构。这些网络只是试图学习每个体素的类标签,这不可避免地忽略了管状结构中体素的几何排列。预制数据与实际数据还会受到患者体内呼吸、心跳等内运动影响,因此不能保证结果的准确性。而预制数据与实时数据融合配准消耗的算力时间在实时手术过程难以被复制。
3、预制与真实组织结构模型存在误差,进入血管存在对患者较大伤害。
发明内容
本申请实施例提供介入手术的组织结构模型数据融合的方法和装置,以解决相关技术存在的问题,技术方案如下:
第一方面,本申请实施例提供了一种介入手术的组织结构模型数据融合方法,包括:
确定进行组织结构模型数据融合的区域;
根据所述区域,提取所述区域对应待生成融合模型的数据;其中,所述待生成融合模型的数据包括预制数据和/或实时数据;
将所述预制数据和/或所述实时数据进行匹配,生成形变场;
根据生成所述形变场的数据,生成用于介入手术的融合模型。
可选地,当所述预制数据对应的实时数据的个数为一个时,将所述预制数据和所述实时数据进行匹配,生成形变场,包括:
提取所述预制数据和所述实时数据的共有特征;
根据所述共有特征,生成所述预制数据和所述实时数据之间的形变场。
可选地,当所述预制数据对应的实时数据的个数大于一个时,将所述预制数据和所述实时数据进行匹配,生成形变场,包括:
针对每一实时数据,提取所述预制数据和所述实时数据的共有特征;
根据每一所述共有特征,建立每一所述预制数据的坐标系和所述实时数据的中间形变场;
将所述中间形变场进行融合,生成形变场。
可选地,将所述预制数据和所述实时数据进行匹配之前,包括:
确定待初始规划路径所经由的腔体结构;
若所述腔体结构为生理结构,则提取所述生理结构表面轮廓点的特征和位置信息,生成点云;
若所述腔体结构为拓扑结构,则锁定所述拓扑结构的目标区域,提取所述拓扑结构的中心线的图像坐标,生成点云;
所述点云组成所述实时数据。
可选地,提取所述预制数据和所述实时数据的共有特征,包括:
分别建立所述预制数据和所述实时数据的坐标系,得到第一初始坐标系和第二初始坐标系;
将所述第一初始坐标系和所述第二初始坐标系的点云分别进行去中心化处理,得到第一去中心化点云和第二去中心化点云;
根据所述第一初始坐标系的坐标轴,对所述第一去中心化点云的坐标进行转换,生成第一转换点云;根据所述第二初始坐标系的坐标轴,对所述第二去中心化点云的坐标进行转换,生成第二转换点云;
提取所述第一转换点云的中心线和所述第二转换点云的中心线,将所述第一转换点云的中心线和所述第二转换点云的中心线作为共有特征。
可选地,根据所述共有特征,生成所述预制数据和所述实时数据之间的形变场,包括:
基于所述共有特征分别在所述第一转换点云和所述第二转换点云,选取至少三个角点;
通过调节各角点之间的尺度因子,生成第一调节点云和第二调节点云;
将所述第一调节点云、所述第二调节点云分别与标准点云进行匹配,输出匹配关系;
根据所述匹配关系,将所述第一初始坐标系映射在所述第二初始坐标系上或将所述第二初始坐标系映射在所述第一初始坐标系上,生成形变场。
可选地,将所述预制数据和所述实时数据进行匹配,生成形变场,包括:
根据神经网络将所述预制数据和所述实时数据进行匹配,生成形变场。
可选地,根据神经网络将所述预制数据和所述实时数据进行匹配,生成形变场之前,包括:
训练所述神经网络;
其中,训练所述神经网络包括:
将训练预制地图和训练实时数据作为所述神经网络的输入,输出训练形变场;
根据所述输出训练形变场,计算所述神经网络的损失值;
比较所述损失值与预设损失值阈值之间的数值大小,反馈训练所述神经网络使得所述神经网络的损失值达到所述预设损失值阈值,完成训练所述神经网络。
可选地,所述神经网络采用循环层级网络的无监督模式网络模型;
记录固定图像If,浮动图像Im,形变场Φ;
总形变场F(Im,If)=Φn·Θ...Θ·Φ1;
可选地,所述神经网络采用DeepFLASH网络模型;
假设存在最优的速度场Vopt,利用基于学习方法预测出初始向量场Vpre,定义基于傅里叶变换的复数域卷积操作:
R表示是复数的真值部分,F表示复数的虚数部分;
同时定义复数域的激活函数:
其损失函数:
其中λ是函数f和权重矩阵Reg(W)之间的正参数平衡因子,其中L2是正则化的范数;
权重矩阵Reg(W)通过沿损失函数最陡下降的方向移动而更新,找到其梯度▽wl。
第二方面,本申请实施例提供了一种介入手术的组织结构模型数据融合的装置,包括:
区域确定模块,用于确定进行组织结构模型数据融合的区域;
数据提取模块,用于根据所述区域,提取所述区域对应待生成融合模型的数据;其中,所述待生成融合模型的数据包括预制数据和/或实时数据;
形变场生成模块,用于将所述预制数据和/或所述实时数据进行匹配,生成形变场;
融合模型生成模块,用于根据生成所述形变场的数据,生成用于介入手术的融合模型。
第三方面,本申请实施例提供了一种计算机程序单元,所述计算机程序单元当由处理单元运行时适于执行根据介入手术的组织结构模型数据融合的方法的步骤。
第四方面,本申请实施例提供了一种计算机可读介质,所述计算机可读介质上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行根据介入手术的组织结构模型数据融合的方法的步骤。
上述技术方案中的优点或有益效果至少包括:
通过将术前预制数据与实时数据进行配准,进而可以更准确地实现全自动或半自动的控制介入器械在患者人体运动,避免了现有技术存在的不能将术前的预制数据与实时数据同时使用辅助介入器械在人体内运动,并且介入器械在人体内存在较大伤害的风险,进而达到综合多种预设预制数据和/或实时数据,方便介入器械可以准确地在人体内运动的技术效果。
解决了术前的预制数据与实时数据融合困难的问题。为全自动或半自动化介入手术提供兼具实时性和准确度的融合模型,以供医生根据融合模型引导操作介入器械在人体内运动。
解决了传统神经网络模型输出形变场无法表征体素的问题。
解决了预制数据与实时数据融合配准消耗的算力时间在实时、紧张的手术过程难以被复制。
本发明通过将术前预制数据与实时数据进行配准,进而方便更准确地实现全自动或半自动的控制介入器械在患者人体运动,避免了现有技术存在的不能将术前的预制数据与实时数据同时使用辅助介入器械在人体内运动,并且介入器械在人体内存在较大伤害的风险,进而达到综合多种数据,使得介入器械可以准确地在人体内运动。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本申请进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本申请公开的一些实施方式,而不应将其视为是对本申请范围的限制。
图1示出根据本专利一实施例的手术机器人的结构图;
图2为采用循环层级网络的无监督模式生成形变场的网络模型示意图;
图3为采用DeepFLASH网络模型生成形变场的示意图;
图4为一具体实施例中配准结果示意图;
图5为另一具体实施例配准结果示意图;
图6为另一具体实施例配准结果示意图;
图7为形变场可视化示意图。
图8示出根据本发明一实施例的手术机器人服务器的构框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本申请的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
术语“第一”、“第二”、“第三”等仅用于区分描述,并不表示排列序号,也不能理解为指示或暗示相对重要性。
此外,术语“水平”、“竖直”、“悬垂”等术语并不表示要求部件绝对水平或悬垂,而是可以稍微倾斜。如“水平”仅仅是指其方向相对“竖直”而言更加水平,并不是表示该结构一定要完全水平,而是可以稍微倾斜。
在本申请的描述中,需要说明的是,术语“内”、“外”、“左”、“右”、“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该申请产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
在本申请的描述中,除非另有明确的规定和限定,术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。
下面将结合附图对本申请的技术方案进行清楚、完整地描述。
第一方面,本申请实施例提供了一种介入手术的组织结构模型数据融合方法,包括:
确定进行组织结构模型数据融合的区域;
根据所述区域,提取所述区域对应待生成融合模型的数据;其中,所述待生成融合模型的数据包括预制数据和/或实时数据;
将所述预制数据和/或所述实时数据进行匹配,生成形变场;
根据生成所述形变场的数据,生成用于介入手术的融合模型。
所述实时数据包括但不限于X-射线成像(X-CT)、电脑断层扫描(CT)、正电子发射计算机断层显像(PET-CT)、核磁共振成像(MRI)、核医学成像(NMI)、超声波成像(UI)原始数据中包含的体素信息。
所述预制数据为基于二维和/或三维(包括三维动态)的预制空间点云成像,融合模型为经过实时数据修正后的二维和/或基于三维(包括三维动态)的空间点云成像。
在实际应用中,可以设置影像处理模块、指令生成模块、控制模块、执行模块。通过各个模块之间的配合进行可以执行相应的任务。
具体地:
所述影像处理模块获取根据初始规划路径确定的初始操作节点。此处的初始操作节点是指介入器械进入人体的第一个节点,在实际应用中需要根据患者患病的位置确定介入器械的初始操作节点,例如,通过大腿的静脉(或动脉)进入血管最终达到人体的心脏实现治疗。
基于所述初始规划路径和所述初始操作节点所在关联路径节点的实时数据,生成第一运动数据;判断是否存在预设时间段内获取的第二运动数据,若存在,则指令生成模块配置所述第一运动数据和所述第二运动数据的权重,生成执行指令。此处的第一运动数据是根据已有的数据(一般为预制数据)规划出的数据,第二运动数据是指医生控制输入控制组件获取的数据。也就是说本专利所保护的装置既可以自主实现全自动控制介入器械的运动,也可以实现半自动控制介入器械的运动。
当生成了执行指令后,就将该执行指令传输给执行模块控制介入器械执行相应的操作。当采用主从式结构实现手术时,主端设备需要将所述执行指令发送至所述从端控制器;所述从端控制器接受执行指`令,并由从端控制器控制所述介入器械完成执行指令。当采用集成式结构实现手术时,可以采用由控制指令转化为执行指令的技术手段,也可直接生成执行指令的技术手段,进而实现手术操作。
通过将术前预制数据与实时数据进行配准,进而更准确地实现全自动或半自动的控制介入器械在患者人体运动,避免了现有技术存在的不能将术前的预制数据与实时数据同时使用辅助介入器械在人体内运动,并且介入器械在人体内存在较大伤害的风险,进而达到综合多种地图,使得介入器械可以准确地在人体内运动的技术效果。
在实际应用中,可以将影像处理模块、指令生成模块、控制模块、执行模块集成在一起,由一个设备整体实现全部/部分功能,也可以将各个模块分别由不同的实体设备组成。本发明仅以图1所示的具体结构为例说明各个模块分分别由不同的实体设备组成的设置方式。具体地:
图1示出根据本专利一实施例的手术机器人的结构图。如图1所示,该一种手术机器人,包括:主端设备100、从端设备200、介入器械(未在图1中示出)。
其中,所述主端设备100,包括:影像处理模块、指令生成模块。影像处理主机、指令生成模块均位于主端设备100中,未在图1中示出。所述指令生成模块用于生成执行指令,对应的实体设备为主端控制器。
在实际应用中可以通过介入器械上安装的传感器(如超声波传感器)或实时数据(如DSA影像数据)获取介入器械的实际情况。当影像处理模块接受到介入器械完成执行指令并到达下一操作节点的信息后,将所述下一操作节点的指令作为新的初始操作节点,指令生成模块循环执行生成执行指令的步骤,直至所述介入器械完成目标操作节点的执行指令。也就是每到一个新的操作节点就规划执行到下一操作节点的需要的运动数据。
其中,所述初始规划路径的起点为初始操作节点,也就是介入人体的初始位置;所述初始规划路径的终点为目标操作节点,也就是患者的患病位置。
所述从端设备,用于获取所在路径的实时数据,并利用所述介入器械执行所述指令生成模块发出的执行指令。
当主端设备生成了介入器械整体的控制指令,则需要将主端的控制指令传输到从端,由从端设备将整体的控制指令进行拆解,由从端的一个或多个组件执行相应的拆解后的指令。
在实际应用中,所述从端设备还包括:从端控制器(应用于从端的控制模块)、从端驱动装置;
所述从端控制器用于拆解主端设备发出执行指令,生成拆解指令;
所述从端驱动装置用于根据所述从端控制器的所述拆解指令,驱动从端的各个组件执行不同的动作,共同实现带动介入器械运动的目的。
术中控制介入器械在人体内运动的过程主要包括:根据预制数据/实时数据结合形变场以及初始规划路径对介入器械进行控制。其中,预制数据/实时数据提供坐标系,形变场提供坐标系之间的对应关系,介入器械需沿初始规划路径在人体内运动,当介入器械偏离初始路径规划时,则需要校正介入器械的执行路线。
具体地,基于所述初始规划路径和所述初始操作节点所在关联路径节点的实时数据,生成第一运动数据,包括:
获取所述初始操作节点的实际位姿和速度;
参考所述初始规划路径,利用所述实际位姿和速度,生成下一操作节点的第一运动数据;
所述第一运动数据包括:下一操作节点的位姿变化量和加速度变化量。
也就是在每个位置时计算下一位置需要达到的速度、加速度,进而控制介入器械执行相应的操作。
所述位姿是指介入器械所在的位置和姿态。根据介入器械的需要达到的位姿可以用于控制介入器械在运动过程中的位置变化过程。即通过当前时刻的实际位姿和下一位置的位姿,确定运动过程中的介入器械的状态变化过程。
实际上,生成运动数据的过程是一个循环的过程,每执行到下一操作节点时,则需要根据当前操作节点的情况执行下一操作节点的运动数据。
运动数据主要包括两个部分:基于位置的运动指令和基于速度的运动指令。其中,运动指令可以包括前进/后退、旋转、控弯等操作等;基于速度的运动指令相当于运动指令的参数可以包括距离、速度、加速度等。通过将运动数据拆分到各个机械模组,进而实现驱动器带动介入器械进行运动的目的。
在进行手术之中还需要将手术之前的预制数据和所述实时数据进行匹配,生成形变场,以便在术中进行精准的导航、控制介入器械介入人体。所述形变场是指预制数据与实时数据之间的逻辑关系。当得到形变场结合预制数据与实时数据中任意数据即可转换为另一数据。因此利用预制数据和所述实时数据之一,以及所述形变场进行路径规划,即可生成初始规划路径。
实际上,在术前可能存在至少一组采用不同技术生成的预制地图。也就是说预制数据对应的预制地图的个数可以为一个或多个。同理,在术中可能存在至少一组采用不同技术生成的实时数据。也就是说实时数据的个数可以为一个或多个。
在实际应用中,将多个地图数据融合的技术手段均为先将预制数据和实时数据进行融合生成中间形变场。再由中间形变场生成最终的形变场。
具体地,当所述预制数据对应的实时数据的个数为一个时,将所述预制数据和所述实时数据进行匹配,生成形变场,包括:
提取所述预制数据和所述实时数据的共有特征;
根据所述共有特征,建立所述预制数据的坐标系和所述实时数据的形变场。
实际上,提取所述预制数据和所述实时数据的共有特征之前,需要分别建立所述预制数据和所述实时数据的坐标系,再根据腔体结构的不同生成对应的点云,最后根据点云提取所述预制数据和所述实时数据的共有特征。
其中,根据腔体结构生成点云的步骤包括:若所述腔体结构为生理结构(例如心脏、肾脏等器官),则提取所述生理结构表面轮廓点的特征和位置信息,生成点云。若所述腔体结构为拓扑结构(例如血管),则锁定所述拓扑结构的目标区域,提取所述拓扑结构的中心线的图像坐标,生成点云。也就是说,点云是由实时数据生成的。
在本发明的可选实施例中,当腔体结构为血管时,提取所述预制数据和所述实时数据的共有特征,包括如下步骤:
分别建立所述预制数据和所述实时数据的坐标系,得到第一初始坐标系和第二初始坐标系;
将所述第一初始坐标系和所述第二初始坐标系的点云分别进行去中心化处理,得到第一去中心化点云和第二去中心化点云;
根据所述第一初始坐标系的坐标轴,对所述第一去中心化点云的坐标进行转换,生成第一转换点云;根据所述第二初始坐标系的坐标轴,对所述第二去中心化点云的坐标进行转换,生成第二转换点云;
提取第一转换点云的中心线和第二转换点云的中心线,将第一转换点云的中心线和第二转换点云的中心线作为共有特征。
如图3-图7所示,具体地,确定待配准的两个图像为浮动图像和固定图像。提取固定图像与浮动图像的点云数据,将从浮动图像中获取的点云数据往固定图像的点云数据上配准,得到配准后的形变场。该形变场描述的是浮动图像上的点云数据为了得到与固定图像上的点云数据很像的配准结果,将浮动图像上的点云数据中的每个点在空间上移动的距离信息。
当得到了预制数据和所述实时数据之间的共同特征,即可根据该共同特征计算出两者之间的转化关系,即形变场。
具体地,根据所述共有特征,生成所述预制数据和所述实时数据之间的形变场,包括:
基于所述共有特征分别在所述第一转换点云和所述第二转换点云,选取至少三个角点;
通过调节各角点之间的尺度因子,生成第一调节点云和第二调节点云;
将所述第一调节点云、所述第二调节点云分别与标准点云进行匹配,输出匹配关系;
根据所述匹配关系,将所述第一初始坐标系映射在所述第二初始坐标系上或将第二初始坐标系映射在所述第一初始坐标系上,生成形变场。
一般情况下,实时数据的数据类型较多,具体地,在术中可以实时通过介入器械上的传感器采集腔体(包括但不限于器官、血管等)内的数据,同时也可以实时采集到体内荧光/放射材料形成的影像数据。
当预制地地图数据的数量也可以为多个,其具体生成形变场的步骤与实时数据的个数为多个的情况没有差别。
在实际应用中,术前获取预制数据的方式存在多种情况,因此预制地图的个数可能存在多个,因此需要将每一预制地图与实时数据进行匹配,再将匹配的结果进行整合,生成形变场。
具体地,当所述预制数据对应的实时数据的个数大于一个时,将所述预制数据和所述实时数据进行匹配,生成形变场的步骤,包括:
针对每一实时数据,提取所述预制地图的预制数据和所述实时数据的共有特征;
根据每一所述共有特征,建立每一所述预制数据的坐标系和所述实时数据的中间形变场;
将所述中间形变场进行融合,生成形变场。
所述中间形变场是一个实时数据与一个预制地数据所形成的转换关系,需要将多个中间形变场之间进行转化才能形成最终的形变场。在实际应用中可以通过取多个中间形变场的最小公倍数的技术手段生成最终的形变场。
如图3-图6所示,在一具体实施例中,预制地图的个数为两个,分别为预制地图1和预制地图2;
将预制地图1的点云数据配准到实时数据上,得到形变场1;将预制地图2的点云数据配准到实时数据上,得到形变场2;形变场1和形变场2为中间形变场;
根据中间形变场(形变场1、形变场2),得到预制地图1的点云数据配准到预制地图2上,得到形变场3。形变场3为预制地图1、预制地图2与实时数据三者之间的形变场。
其中,针对每一预制数据和所述实时数据进行匹配生成中间形变场的过程与“当所述预制数据对应的预制地图的个数为一个时,将所述预制数据和所述实时数据进行匹配,生成形变场”的过程相同。
将所述预制数据和所述实时数据进行匹配,生成形变场,包括:
根据神经网络将所述预制数据和所述实时数据进行匹配,生成形变场。
可选地,根据神经网络将所述预制数据和所述实时数据进行匹配,生成形变场之前,包括:
训练所述神经网络;
其中,训练所述神经网络包括:
将训练预制地图和训练实时数据作为所述神经网络的输入,输出训练形变场;
根据所述输出训练形变场,计算所述神经网络的损失值;
比较所述损失值与预设损失值阈值之间的数值大小,反馈训练所述神经网络使得所述神经网络的损失值达到所述预设损失值阈值,完成训练所述神经网络。
在实际应用中,可以采用预先通过非本次手术的预制数据和实时数据对神经网络进行训练,生成形变场,直至神经网络对应的损失函数收敛。也就是说当损失函数处于收敛状态时,所训练的神经网络可以生成形变场的准确度较高,因此采用完成训练的神经网路可以用于本次手术生成形变场。
在实际应用中,将预制数据和训练实时数据样本数据集分别分为训练集、测试集和验证集。训练集(train set):用于训练模型以及确定参数。验证集(validation set):用于确定网络结构以及调整模型的超参数。测试集(test set):用于检验模型的泛化能力。参数(parameters)是指由模型通过学习得到的变量。超参数(hyperparameters)是指根据经验进行设定的参数,如迭代次数,隐层的层数,每层神经元的个数,学习率等。
优选地,如果当数据量在万级别以下时,将训练集、验证集以及测试集划分为6:2:2;若是数据量在万级别以上时,可以将训练集、验证集、测试集比例调整为98:1:1。
在一具体实施例中,所述神经网络配准模型采用Large Diffeomorphic DistanceMetric Mapping(LDDMM)、Voxelmorph、Quicksilver、FLASH、DeepFLASH。
优选地,采用DeepFLASH网络模型,其中微分纯变换以更少的维数完全表征,将变换的低维傅里叶表示引入到医学的配准算法中从而降低梯度的计算复杂性。DeepFLASH网络模型寻求不同维度成像之间的非线性和密集(体素级)空间变换。这种变换应该是微分同构,即具有可微逆的可微双射映射。
如图3所示,其向量空间中具有新定义的函数,即相对速度V0的时间序列索引,从实时数据中捕获的源图像S和目标位置图像T,是源图像的实部频谱,是源图像的虚部频谱;是目标位置图像的实部频谱,是目标位置图像的虚部频谱。Rnet和Inet是两个独立的神经网络,分别用来训练实部和虚部。Rnet和Inet是两个独立的神经网络可以采用CNN网络(Convolutional Neural Network)也可以以其他更先进的网络模型取代。Vpre是从低维预测中恢复的速度,Φ是形变场。
假设存在最优的速度场Vopt,利用基于学习方法预测出初始向量场Vpre,定义基于傅里叶变换的复数域卷积操作:
R表示是复数的真值部分,F表示复数的虚数部分;
同时定义复数域的激活函数,
其损失函数:
其中λ是函数f和权重矩阵Reg(W)之间的正参数平衡因子,其中L2是正则化的范数。
权重矩阵Reg(W)通过沿损失函数最陡下降的方向移动而更新,找到其梯度▽wl。
可选地,所述神经网络配准模型采用深度学习中的有监督学习和/或无监督学习模式。
可选地,采用无监督学习模式中的层级式网络模型DLIR、VTN、U-net。
优选地,采用循环层级网络的无监督模式生成形变场。
总形变场F(Im,If)=Φn·Θ...Θ·Φ1。
优选地,采用循环层级网络的无监督模式生成最终形变场前经过仿射变换,仿射变换包括一次线性变换和一次平移,对应神经网络的加权运算与加偏置运算。
优选地,采用循环层级网络的无监督模式生成最终形变场前经过至少一个层级的UNet层,生成多个Θ,最后根据总形变场计算损失函数,再训练所有网络。UNet层网络包含至少一次上采样与下采样,其网络层越深得到的特征图有更大的视野区域,浅层关注纹理特征,深层关注本质特征,也可通过反卷积得到更大尺寸的特征图边缘特征,避免在循环层级过程中丢失特征。
在一具体实施例中,测试阶段使用共享权重的循环层级网络,即每次都只使用同一个层级网络。
图8示出根据本发明一实施例的手术机器人服务器的结构框图。如图8所示,该手术机器人服务器包括:存储器810和处理器820,存储器810内存储有可在处理器820上运行的计算机程序。处理器820执行该计算机程序时实现上述实施例中的控制操作。存储器810和处理器820的数量可以为一个或多个。
该手术机器人服务器还包括:
通信接口830,用于与外界设备进行通信,进行数据交互传输。
如果存储器810、处理器820和通信接口830独立实现,则存储器810、处理器820和通信接口830可以通过总线相互连接并完成相互间的通信。该总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器810、处理器820及通信接口830集成在一块芯片上,则存储器810、处理器820及通信接口830可以通过内部接口完成相互间的通信。
本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现本申请实施例中提供的方法。
本申请实施例还提供了一种芯片,该芯片包括,包括处理器,用于从存储器中调用并运行存储器中存储的指令,使得安装有芯片的通信设备执行本申请实施例提供的方法。
本申请实施例还提供了一种芯片,包括:输入接口、输出接口、处理器和存储器,输入接口、输出接口、处理器以及存储器之间通过内部连接通路相连,处理器用于执行存储器中的代码,当代码被执行时,处理器用于执行申请实施例提供的方法。
应理解的是,上述处理器可以是中央处理器(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signal processing,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(fieldprogrammablegate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者是任何常规的处理器等。值得说明的是,处理器可以是支持进阶精简指令集机器(advanced RISC machines,ARM)架构的处理器。
进一步地,可选的,上述存储器可以包括只读存储器和随机存取存储器,还可以包括非易失性随机存取存储器。该存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以包括只读存储器(read-onlymemory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以包括随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用。例如,静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic random access memory,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data date SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhancedSDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分。并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。
应理解的是,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。上述实施例方法的全部或部分步骤是可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。上述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。该存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (13)
1.一种介入手术的组织结构模型数据融合的方法,其特征在于,包括:
确定进行组织结构模型数据融合的区域;
根据所述区域,提取所述区域对应待生成融合模型的数据;其中,所述待生成融合模型的数据包括预制数据和/或实时数据;
将所述预制数据和/或所述实时数据进行匹配,生成形变场;
根据生成所述形变场的数据,生成用于介入手术的融合模型。
2.根据权利要求1所述的方法,其特征在于,当所述预制数据对应的实时数据的个数为一个时,将所述预制数据和所述实时数据进行匹配,生成形变场,包括:
提取所述预制数据和所述实时数据的共有特征;
根据所述共有特征,生成所述预制数据和所述实时数据之间的形变场。
3.根据权利要求1所述的方法,其特征在于,当所述预制数据对应的实时数据的个数大于一个时,将所述预制数据和所述实时数据进行匹配,生成形变场,包括:
针对每一实时数据,提取所述预制数据和所述实时数据的共有特征;
根据每一所述共有特征,建立每一所述预制数据的坐标系和所述实时数据的中间形变场;
将所述中间形变场进行融合,生成形变场。
4.根据权利要求2或3所述的方法,其特征在于,将所述预制数据和所述实时数据进行匹配之前,包括:
确定待初始规划路径所经由的腔体结构;
若所述腔体结构为生理结构,则提取所述生理结构表面轮廓点的特征和位置信息,生成点云;
若所述腔体结构为拓扑结构,则锁定所述拓扑结构的目标区域,提取所述拓扑结构的中心线的图像坐标,生成点云;
所述点云组成所述实时数据。
5.根据权利要求4所述的方法,其特征在于,提取所述预制数据和所述实时数据的共有特征,包括:
分别建立所述预制数据和所述实时数据的坐标系,得到第一初始坐标系和第二初始坐标系;
将所述第一初始坐标系和所述第二初始坐标系的点云分别进行去中心化处理,得到第一去中心化点云和第二去中心化点云;
根据所述第一初始坐标系的坐标轴,对所述第一去中心化点云的坐标进行转换,生成第一转换点云;根据所述第二初始坐标系的坐标轴,对所述第二去中心化点云的坐标进行转换,生成第二转换点云;
提取所述第一转换点云的中心线和所述第二转换点云的中心线,将所述第一转换点云的中心线和所述第二转换点云的中心线作为共有特征。
6.根据权利要求5所述的方法,其特征在于,根据所述共有特征,生成所述预制数据和所述实时数据之间的形变场,包括:
基于所述共有特征分别在所述第一转换点云和所述第二转换点云,选取至少三个角点;
通过调节各角点之间的尺度因子,生成第一调节点云和第二调节点云;
将所述第一调节点云、所述第二调节点云分别与标准点云进行匹配,输出匹配关系;
根据所述匹配关系,将所述第一初始坐标系映射在所述第二初始坐标系上或将所述第二初始坐标系映射在所述第一初始坐标系上,生成形变场。
7.根据权利要求1所述的方法,其特征在于,将所述预制数据和所述实时数据进行匹配,生成形变场,包括:
根据神经网络将所述预制数据和所述实时数据进行匹配,生成形变场。
8.根据权利要求7所述的方法,其特征在于,根据神经网络将所述预制数据和所述实时数据进行匹配,生成形变场之前,包括:
训练所述神经网络;
其中,训练所述神经网络包括:
将训练预制地图和训练实时数据作为所述神经网络的输入,输出训练形变场;
根据所述输出训练形变场,计算所述神经网络的损失值;
比较所述损失值与预设损失值阈值之间的数值大小,反馈训练所述神经网络使得所述神经网络的损失值达到所述预设损失值阈值,完成训练所述神经网络。
11.一种介入手术的组织结构模型数据融合的装置,其特征在于,包括:
区域确定模块,用于确定进行组织结构模型数据融合的区域;
数据提取模块,用于根据所述区域,提取所述区域对应待生成融合模型的数据;其中,所述待生成融合模型的数据包括预制数据和/或实时数据;
形变场生成模块,用于将所述预制数据和/或所述实时数据进行匹配,生成形变场;
融合模型生成模块,用于根据生成所述形变场的数据,生成用于介入手术的融合模型。
12.一种计算机程序单元,所述计算机程序单元当由处理单元运行时适于执行根据权利要求1至10中的一项所述的方法的步骤。
13.一种计算机可读介质,所述计算机可读介质上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如权利要求12所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211729672.7A CN115965667A (zh) | 2022-12-30 | 2022-12-30 | 介入手术的组织结构模型数据融合的方法和装置 |
PCT/CN2023/140838 WO2024140435A1 (zh) | 2022-12-30 | 2023-12-22 | 介入手术的组织结构模型数据融合的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211729672.7A CN115965667A (zh) | 2022-12-30 | 2022-12-30 | 介入手术的组织结构模型数据融合的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115965667A true CN115965667A (zh) | 2023-04-14 |
Family
ID=87361657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211729672.7A Pending CN115965667A (zh) | 2022-12-30 | 2022-12-30 | 介入手术的组织结构模型数据融合的方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115965667A (zh) |
WO (1) | WO2024140435A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024140436A1 (zh) * | 2022-12-30 | 2024-07-04 | 上海术之道机器人有限公司 | 介入器械的运动规划方法、系统、程序单元和存储介质 |
WO2024140435A1 (zh) * | 2022-12-30 | 2024-07-04 | 上海术之道机器人有限公司 | 介入手术的组织结构模型数据融合的方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110599528B (zh) * | 2019-09-03 | 2022-05-27 | 济南大学 | 一种基于神经网络的无监督三维医学图像配准方法及系统 |
CN111784727B (zh) * | 2020-06-17 | 2023-04-07 | 北京理工大学 | 基于3d/2d配准应用于血管介入手术导航的方法及装置 |
CN112802073B (zh) * | 2021-04-08 | 2021-07-06 | 之江实验室 | 一种基于图像数据和点云数据的融合配准方法 |
CN115965667A (zh) * | 2022-12-30 | 2023-04-14 | 上海术之道机器人有限公司 | 介入手术的组织结构模型数据融合的方法和装置 |
-
2022
- 2022-12-30 CN CN202211729672.7A patent/CN115965667A/zh active Pending
-
2023
- 2023-12-22 WO PCT/CN2023/140838 patent/WO2024140435A1/zh unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024140436A1 (zh) * | 2022-12-30 | 2024-07-04 | 上海术之道机器人有限公司 | 介入器械的运动规划方法、系统、程序单元和存储介质 |
WO2024140435A1 (zh) * | 2022-12-30 | 2024-07-04 | 上海术之道机器人有限公司 | 介入手术的组织结构模型数据融合的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2024140435A1 (zh) | 2024-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7093801B2 (ja) | 手術中の位置調整および誘導を容易にするシステム | |
CN111161326B (zh) | 用于可变形图像配准的无监督深度学习的系统和方法 | |
CN107403446B (zh) | 用于使用智能人工代理的图像配准的方法和系统 | |
US7689019B2 (en) | Method and device for registering 2D projection images relative to a 3D image data record | |
CN115965667A (zh) | 介入手术的组织结构模型数据融合的方法和装置 | |
KR102233427B1 (ko) | 의료 영상 정합 방법 및 장치 | |
JP6797200B2 (ja) | 血管構造内で血管内器具を誘導する助けとなるためのシステム及び同システムの作動方法 | |
US10485510B2 (en) | Planning and guidance of electrophysiology therapies | |
CN110248603A (zh) | 3d超声和计算机断层摄影结合用于引导介入医疗规程 | |
US20230301624A1 (en) | Image-Based Probe Positioning | |
JP2006110351A (ja) | 心臓の解剖学的領域の3dモデルと追尾システムとを介入蛍光透視システムの投影画像を用いて位置合わせするための方法及び装置 | |
WO2005083629A1 (en) | Device and process for multimodal registration of images | |
JP2013517012A (ja) | インターベンション装置のナビゲーション | |
Wang et al. | Intravascular catheter navigation using path planning and virtual visual feedback for oral cancer treatment | |
JP2014509895A (ja) | 血管インターベンションプロシージャにおいてインターベンション装置の正確な誘導を支援する画像表示を提供する画像診断システム及び方法 | |
CN114140374A (zh) | 提供合成造影场景 | |
Timinger et al. | Motion compensated coronary interventional navigation by means of diaphragm tracking and elastic motion models | |
JP6876200B2 (ja) | 動的術中セグメンテーションデータに対する静的術前計画データの位置合わせ | |
US20100316278A1 (en) | High-resolution three-dimensional medical imaging with dynamic real-time information | |
EP3457942B1 (en) | Verifying a position of an interventional device | |
EP4262565A1 (en) | Ultrasound image-based identification of anatomical scan window, probe orientation, and/or patient position | |
KR102716941B1 (ko) | 이미지-기반 프로브 포지셔닝 | |
Jeong et al. | Non-rigid registration based on hierarchical deformation of coronary arteries in CCTA images | |
Erstellt von Yeganeh | Deep Learning for Non-rigid 2D-3D Registration | |
Jäckle | Guidance of medical instruments based on tracking systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |