CN115553883A - 一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统 - Google Patents

一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统 Download PDF

Info

Publication number
CN115553883A
CN115553883A CN202211213023.1A CN202211213023A CN115553883A CN 115553883 A CN115553883 A CN 115553883A CN 202211213023 A CN202211213023 A CN 202211213023A CN 115553883 A CN115553883 A CN 115553883A
Authority
CN
China
Prior art keywords
ultrasonic
image
spine
dimensional
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211213023.1A
Other languages
English (en)
Inventor
朱永坚
胡鑫奔
王云江
刘天健
崔露航
肖璇
杨克己
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202211213023.1A priority Critical patent/CN115553883A/zh
Publication of CN115553883A publication Critical patent/CN115553883A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3472Trocars; Puncturing needles for bones, e.g. intraosseus injections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition

Abstract

本发明公开了一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统,包括:协作机器人、医用超声机、运动控制模块和图像处理系统,图像处理系统进一步包括CT影像脊柱三维重建模块、超声数据处理模块和配准融合模块。本发明可以依据薄层CT影像资料重建CT的三维脊柱模型,可以经超声图像处理得到超声三维脊柱模型,可以将上述两个模型配准融合统一坐标系。利用本发明可以实现“三维定位+二维监控”导航穿刺定位模式,充分发挥了机器人超声扫查成像的优势,最大程度的减少人力成本和经验依赖,安全可靠的完成经皮脊柱穿刺定位。本发明耗材备经济投入小,显示结果直观,无辐射害性,适合推广使用。

Description

一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统
技术领域
本发明涉及医学和计算机领域,具体涉及一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统。
背景技术
脊柱骨质不规则,多节串接,是人体承重的“脊梁”,其内通有处理和传递神经冲动的脊髓,其外覆以复杂叠层的背部肌肉,构成的是复杂肌骨叠层环境。发生在此的退变性疾病如椎间盘突出,近年来发病率因人群生活习惯的改变呈上升态势,已是临床多发病、常见病;肿瘤类疾病如脊髓内肿瘤,既要完成肿瘤全切,又要保护神经功能,还要维护脊柱稳定,手术综合难度极高,是临床“老大难”问题。
近年来,随着“微创手术”的理念深入人心,医生和病人都希望能通过小切口,短路径,精暴露来最大程度的实现手术目标,如完整切除肿瘤或充分神经减压。因此,对于脊柱脊髓手术,切口和入路的规划是重中之重,也是微创手术高技术门槛和陡峭学习曲线的主要原因之一。这样的临床“痛点”问题给创新和研发术中在线精准化导航穿刺定位技术带来强烈的需求和巨大的挑战。以微创脊柱手术中具代表性的经皮脊柱内镜技术为例,行节段定位和精准穿刺靶点定位是术前的必须步骤,要求定位误差<1cm。为满足手术定位需求,有临床认可、广泛使用的定位方法,也有各种新兴的技术和设备不断的涌现:
第一,通过C型臂X光机(C臂机)或O型臂CT机实现术中X线透视或CT辅助定位,是目前临床主流的术中定位办法。其流程可概括为“正侧位透视(CT成像)——穿刺针置入——重复透视(CT成像)确定穿刺针位置(——调整穿刺针——再次检验)——定位完成”。这种辅助定位方式具有操作相对简单、精度相对较高的优势。成像的非实时性是其一大缺陷,同时存在较强的经验依赖和设备要求,另外因X线和CT的射线特性,对病人和长期施行该类手术的医生护士都会造成不可忽视的辐射损伤,一定程度上缩短了外科团队的职业寿命。
第二,以各种导航设备和机器人为代表的的导航定位技术,一般集成定位系统(光定位仪或磁定位仪)、机器人和导航系统、图像配准和入路规划系统于一身,主要面向脊柱退变、失稳等需置入螺钉的融合手术。能有效提高椎弓根螺钉放置精度,最高可达惊人的亚毫米级别(≤1mm)。其技术要求的有创性骨标链接不符合微创理念,也存在注册时间长、前期准备繁琐和设备昂贵的问题。
第三,基于超声扫查成像的导航定位技术。超声具有实时成像、安全无辐射等特点,在临床诊断、引导穿刺定位等领域已有广泛的应用。因骨骼结构在超声成像中存在声波衰减、折射和畸变,造成图像中骨定征困难,连续扫查的超声图像无法如CT一般直接通过阈值选择和体素重建出有效的三维脊柱骨模型以指导临床。为解决这一问题,近年来新兴的有多模态图像匹配融合技术,即将术前采集的CT或MRI图像以二维或三维的形式和术中超声图像匹配,帮助补全超声图像的缺失信息,一次提高导航引导的可视化程度和定位精度。但实际应用中严格限制了超声扫查路径,牺牲了原本成像灵活的优势。另因脊柱节段成像相似性、超声图像质量良莠不起,继而存在配准难度大,定位误差大的问题,导致其技术的普适性和可靠性有限。另外,也有方法在三维超声脊柱体数据中提取特征,如提取脊柱矢状位剖面、棘突和横突三维曲度以辨明节段或评估侧弯角度,但成像面形变测量误差较大且不能准确估计,可视化程度有限,和医生使用的常规图像差异较大。
综上,针对脊柱脊髓相关疾病术中导航定位技术发展迅速,超声技术因其独有的成像灵活、实时性和无辐射性的特点呈现出较大的研究和应用潜力。超声成像也存在骨组织成像差、定征难和扫查识图经验依赖的问题。将超声成像技术、机器人技术和图像处理技术有机结合,为其应用带来了新的思路,从而发挥超声扫查成像的特点和优势,减少人力成本和经验依赖,实现高精度、安全可靠的经皮脊柱穿刺定位,代替传统的X线定位方法,达成术中穿刺定位的目的。
发明内容
对现有的不足,本发明所要解决的技术问题是:提供一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统,创新性的提出“三维定位+二维监控”的穿刺定位模式。“三维定位”即通过扫查过程中自动化骨表面图像分割和三维重建,和CT脊柱三维模型配准建立起和术中体位相适应的手术坐标系,以此为操作者提供直观和精准的导航引导;“二维监控”即机器人控制移动超声探头,使得穿刺靶点显露在超声图像上,二维超声图像实时监控穿刺全程。这样的穿刺定位模式具有良好的精度,同时最大程度的确保了穿刺过程中的安全性和可靠性,极大的降低了经验依赖。
为解决技术问题,本发明提出了一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其包括:
协作机器人,其具有至少一个含若干运动关节的机械臂,用于实现机械臂末端上的集成支架在三维空间的移动;
医用超声机,所述医用超声机的超声探头设置在机械臂末端的集成支架上,用于在术中进行自适应超声扫查,获取和病人术中体位相适应的超声数据;并且所述超声探头还用于在穿刺等操作过程中提供实时超声图像;
运动控制模块,用于控制机械臂末端上的集成支架的移动,使超声探头在术中按运动控制模块预设的扫查路径和探头位姿进行自适应超声扫查,以及在术中控制超声探头到达目标穿刺靶点附近并保持压紧皮肤状态;
图像处理系统,能够获取医用超声机得到的超声图像数据,所述图像处理系统包括CT影像脊柱三维重建模块、超声数据处理模块和配准融合模块;
其中,CT影像脊柱三维重建模块,用于获取病人术前薄层CT影像资料,设定CT阈值范围分离提取出人体骨质信号,提取后基于体素体绘制的三维重建输出重建骨模型,去除杂质信号后,获得CT脊柱模型并保存;
超声数据处理模块,采用基于神经网络的图像处理算法实时识别和分割骨表面图像区域,采用VTK开源程序库对已知位置、分割好的骨表面超声图像序列进行实时基于体素的体绘制,并对图像进行渲染,得到和病人术中体位相适应的超声脊柱三维模型;
配准融合模块,获取CT影像脊柱三维重建模块的CT脊柱模型和超声数据处理模块的超声脊柱三维模型,以超声脊柱三维模型为基坐标,对两个模型进行配准,建立统一的手术坐标系。
进一步的,所述CT影像脊柱三维重建模块获取的薄层CT的切片层厚要求小于1.0mm;CT阈值的选取应满足只显示骨质密度,且不显示其他组织密度;CT脊柱模型的保存分辨率选取为1*1*1mm。
进一步的,CT阈值范围应满足>400Hu。
进一步的,所述运动控制模块、机械臂和超声探头在获取超声图像前需进行标定,以消除采样和传输的时间差值;标定分为时间标定和空间标定,时间标定精度小于0.01s,空间标定精度误差需<0.5mm。
进一步的,所述配准融合模块在进行两个模型配准时,在解剖节段标志点指导下进行人工选点,人工选点数量≥3个,基于点特征和ICP算法进行配准,以超声脊柱三维模型为基准进行刚性变换,配准误差<1mm。
进一步的,所述超声探头满足50—90mm深度的成像。
进一步的,所述集成支架上还设置有自适应压紧随动装置和辅助穿刺装置;
所述自适应压紧随动装置用于保持扫查过程中超声探头与病人身体的良好的相对位置姿态以保障扫查安全和获取高质量的超声图像;
所述辅助穿刺支架用于辅助医生沿规定路径和置入穿刺针,并显示穿刺针的置入深度。
本发明和现有技术方法相比,具有如下优点和有益效果:
本发明可以替代传统的术中X线透视或CT成像辅助定位系统,本发明创新性的提出“三维定位+二维监控”导航穿刺定位模式,充分发挥了机器人超声扫查成像的优势,最大程度的减少人力成本和经验依赖,安全可靠的完成经皮脊柱穿刺定位。机械臂末端把持超声探头,赋予超声扫查强大的机动性并实时获取图像位姿信息,结合U-Net卷积神经网络图像分割算法,实现超声图像骨表区域自动化分割,使得超声扫查骨三维成像成为可能,初步具有和CT相媲美的临床指导效果。通过和CT重建脊柱模型的配准融合得到的和病人术中体位相适应的统一手术坐标系,相当于给医生戴上了“透视眼镜”,将其从复杂的空间想象和信息整合中解放出来,大大降低了临床经验依赖。图像处理系统中CT重建三维模型和超声重建三维模型的基于图像特征点的配准,能极大程度的规避节段配准错误,且帮助医生形成基于术中体位的解剖全局观,有利于提高定位的准确性;在穿刺过程中,在穿刺架辅助和超声图像全程监控下进行穿刺,最大程度的保证了穿刺过程的安全性和可靠性,无需二次验证。本发明系统可应用于脊柱脊髓开放和微创手术的定位,特别适合以经皮脊柱内镜为代表的的脊柱脊髓微创通道手术的手术定位和路径规划,同样适合椎管外麻醉辅助、床边腰椎穿刺定位和临床教学示范等临床场景。本发明采用的技术方法设备经济投入小,无高费用耗材,显示结果直观,自动化程度高,无辐射害性,穿刺定位安全精准,适合推广使用。
附图说明
图1是应用本发明系统的流程示意图;
图2术前采集的CT脊柱模型示意图;图中A表示后面观察,B表示侧面观察;
图3术中采集的超声脊柱模型示意图;图中A表示后面观察,B表示侧面观察;
图4CT脊柱模型和超声脊柱模型配准融合示意图;图中A表示后面观察,B表示侧面观察;
图5是本发明系统的机械臂及穿刺目标节段小关节突的过程示意图
图中,1、肋横突关节,2、椎板,3、椎体,4、棘突,5、横突,6、肋骨,7、椎板间隙,8、肋脊角,9、机械臂,10、穿刺辅助装置,11、超声图像,12、预测穿刺针路径。
具体实施方式
下面结合具体实施方式对本发明做进一步阐述和说明。所述实施例仅是本公开内容的示范且不圈定限制范围。本发明中各个实施方式的技术特征在没有相互冲突的前提下,均可进行相应组合。
本实施例一个了一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其包括:协作机器人、医用超声机、运动控制模块和图像处理系统四大组成部分。
其中,如图5所示,协作机器人具有至少一个含多个运动关节的机械臂,其具备高精度的机械臂末端位置获取功能,其与运动控制模块相连接受控制,并向运动控制模块实时反馈机械臂末端位置;通过各运动关节的配合,可以实现机械臂末端上的集成支架在三维空间的移动。在本发明的一个实施例中,协作机器人为6DPF UR协作机器人;
医用超声机用于获取超声图像,其为医疗系统中的现有设备。所述医用超声机的超声探头设置在机械臂末端的集成支架上,用于在术中进行自适应超声扫查,获取和病人术中体位相适应的超声数据,并且所述超声探头还用于在术中提供实时超声图像;
运动控制模块搭载在计算机上,是本系统的主要控制模块,用于控制机械臂末端上的集成支架的移动,使超声探头在术中按机械臂导航模块预设的扫查路径和探头位姿进行自适应超声扫查,以及在术中控制超声探头到达目标穿刺靶点附近并压紧皮肤;
图像处理系统,搭载在计算机上,所述图像处理系统包括CT影像脊柱三维重建模块、超声数据处理模块和配准融合模块;其中,CT影像脊柱三维重建模块,用于获取病人术前薄层CT影像资料,设定CT阈值范围分离提取出人体骨质信号,提取后基于体素的三维体绘制输出重建骨模型,对重建骨模型去除杂质信号,获得CT脊柱模型并保存;
超声数据处理模块,采用基于神经网络图像分割算法实时识别和分割骨表面图像区域,采用VTK开源程序库对已知位置、分割好的骨表面超声图像序列进行实时基于体素的体绘制,并对图像进行渲染,得到和病人术中体位相适应的超声脊柱模型;
配准融合模块,获取CT影像脊柱三维重建模块的CT脊柱模型和超声数据处理模块的超声脊柱模型,以超声脊柱模型为基坐标,对两个模型进行配准,建立统一的手术坐标系。
在一个优选的实施例中,所述集成支架上还设置有自适应压紧随动装置和辅助穿刺装置;所述自适应压紧随动装置用于保持扫查过程中超声探头与病人身体的良好的相对位置姿态以保障扫查安全和获取高质量的超声图像;所述辅助穿刺支架用于辅助医生沿规定路径和置入穿刺针,并显示穿刺针的置入深度。
如图1所示,采用本发明的系统进行基于机器人超声扫查成像的无辐射经皮脊柱穿刺定位的流程,可以如下:
S1.术前CT影像脊柱三维重建流程
1.1:获取病人术前薄层CT影像资料,设定CT阈值范围分离提取出人体骨质信号,提取后基于体素(Voxel-basedrendering)的三维体绘制(Volume Rendering)输出重建骨模型;
1.2:去除脊柱、部分肋骨以外的其他杂质信号,选择合适分辨率保存为CT脊柱模型,如图2所示,A和B分别为CT脊柱模型的背侧位面和右侧位面,通过对模型上解剖标记点的识别(通常为棘突4、横突5和椎板间隙7),以指导脊柱节段定位、切口画线或穿刺定位。
S2.机器人超声扫查成像脊柱三维重建流程
2.1:按手术要求确定病人术中体位,并妥善固定防止身体长轴在定位过程中移动;
2.1:器械组装完成后需进行标定,标定精度满意后方可进行后续步骤,超声探头和自适应超声扫查辅助装置搭载在机械臂末端的集成支架上,由机械臂带动扫查装置执行扫查;其中,自适应压紧随动装置可采取CN201910277733.2所公开的自适应压紧随动装置;
2.2:依据手术需求、背部轮廓和病变靶点位置规划扫查路径和探头位姿,扫查路径至少囊括一个解剖节段标志点(就近选择,肋脊角或腰骶交界),按术中体位调整探头位姿。扫查完成后机器人移动探头自然抬离皮面,移动设定的安全区域悬停锁定;
2.3:实时力控监测下行机器人辅助动态自适应超声扫查,扫查过程中采用基于神经网络图像分割算法实时识别和分割骨表面图像区域;
2.4:采用VTK(Visualization Toolkit)开源程序库对已知位置、分割好的骨表面超声图像序列进行实时基于体素的体绘制,选择合适模式和渲染指数进行渲染,得到和病人术中体位相适应的超声脊柱模型,如图3所示,清晰可辨、并和CT脊柱模型对应的解剖标志点可作为2.5中的点特征选择,包括不限于肋横突关节1、横突5、肋脊角8等;
2.5:导入S1获得的CT脊柱模型,在解剖节段标志点指导下,人工选点后行基于点特征,辅以迭代最近点(Iterative closest point,ICP)算法配准。以超声脊柱模型为基坐标建立统一的手术坐标系,图4所示为CT脊柱模型和超声脊柱模型配准融合示意图,肋脊角8为点特征选择。
S3.手术坐标系导航下穿刺定位流程
3.1:主刀医生在手术坐标系上识别病变节段,进一步在手术坐标系中确认目标穿刺靶点,选定后获取该点于手术坐标系中的具体位置。机器人移动探头到达靶点附近后缓慢下降压紧皮肤,直至穿刺靶点落在在实时超声图像平面上的合适区域。
3.2:如图5所示,配合同样搭载在机械臂9末端的集成支架上的穿刺辅助装置10规划穿刺角度和皮肤切口,预计穿刺针末端点在实时超声图像11上和穿刺靶点重合后,由主刀医师在实时超声图像11全程引导下经皮置入穿刺针,沿预测穿刺针路径12进行穿刺。
3.3:固定穿刺针,撤离机器人,根据手术需要进行扩孔或切皮,行后续手术操作。
在一个优选实施例中,为了获得更准确的CT重建三维脊柱模型,所述步骤1.1的薄层CT切片层厚要求为1.0mm或更小;CT阈值范围应满足只显示骨质密度,且不显示其他组织密度。进一步优选的,所述步骤1.1的CT阈值范围应满足>400Hu;可依据手术需求去除部分影响视野的骨质。
在一个优选实施例中,所述步骤1.2中的保存分辨率选取为1*1*1mm。
在一个优选实施例中,所述步骤2.1中为消除采样和传输的时间差值,和转换超声图像坐标系到机器人基座坐标系内,扫查前需完成严格的标定过程,可分为时间标定和空间标定,时间标定精度小于0.01s,空间标定精度误差需<0.5mm。
所述步骤2.2扫查路径的智能规划中,扫查路径至少囊括一个解剖节段标志点,根据靶点所在位置,就近选择肋脊角或腰骶交界,并以此指导后续配准人工选点。
根据权利要求1所述的方法,其特征在于所述步骤2.3扫查过程中,基于U-Net卷积神经网络行自动化骨表面图像区域的识别和分割,识别和分割帧率满足大于采样帧率,一般大于20fps。
根据权利要求1所述的方法,其特征在于所述步骤2.4三维重建过程中,基于VTK开源程序库对已知位置、分割好的骨表面超声图像序列进行实时基于体素的体绘制,输出三维超声脊柱模型。
根据权利要求1所述的方法,其特征在于所述步骤2.5配准融合过程中,在解剖节段标志点(肋脊角或腰骶交界)指导下人工选点,数量≥3个,基于点特征和ICP算法进行配准,以超声脊柱三维模型为基进行刚性变换,配准误差<1mm。
所述的医用超声机可采集超声图像至图像处理系统,配备的超声探头满足50—90mm深度的成像。所述的图像处理系统可导入薄层CT影像资料(DICOM格式数据),重建输出CT重建的三维脊柱模型(.stl或.obj格式),并能对三维脊柱模型进行编辑,去除骨质外的其他杂质信号;可导入来源于医用超声机的超声图像和来源于机械臂的机械臂末端位置信息,按标定得到的4*4旋转矩阵进行转换;能基于点特征和ICP算法实现CT三维脊柱模型和超声三维脊柱模型的配准融合,以超声三维脊柱模型为基坐标统一坐标系。
本发明可以替代传统的术中X线透视或CT成像辅助定位系统,可以应用于脊柱脊髓开放和微创手术的定位,特别适合以经皮脊柱内镜为代表的的脊柱脊髓微创通道手术的手术定位和路径规划,同样适合椎管外麻醉辅助、床边腰椎穿刺定位和临床教学示范等临床场景。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (8)

1.一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其特征在于,包括:
协作机器人,其具有至少一个含若干运动关节的机械臂,用于实现机械臂末端上的集成支架在三维空间的移动;
医用超声机,所述医用超声机的超声探头设置在机械臂末端的集成支架上,用于在术中进行自适应超声扫查,获取和病人术中体位相适应的超声数据;并且所述超声探头还用于在术中提供实时超声图像;
运动控制模块,用于控制机械臂末端上的集成支架的移动,使超声探头在术中按运动控制模块预设的扫查路径和探头位姿进行自适应超声扫查,以及在术中控制超声探头到达目标穿刺靶点附近并压紧皮肤;
图像处理系统,能够获取医用超声机得到的超声数据,所述图像处理系统包括CT影像脊柱三维重建模块、超声数据处理模块和配准融合模块;
其中,CT影像脊柱三维重建模块,用于获取病人术前薄层CT影像资料,设定CT阈值范围分离提取出人体骨质信号,提取后基于体素的三维体绘制输出重建骨模型,对重建骨模型去除杂质信号,获得CT脊柱模型并保存;
超声数据处理模块,采用基于神经网络图像分割算法实时识别和分割骨表面图像区域,采用VTK开源程序库对已知位置、分割好的骨表面超声图像序列进行实时基于体素的体绘制,并对图像进行渲染,得到和病人术中体位相适应的超声脊柱三维模型;
配准融合模块,获取CT影像脊柱三维重建模块的CT脊柱模型和超声数据处理模块的超声脊柱三维模型,以超声脊柱三维模型为基坐标,对两个模型进行配准,建立统一的手术坐标系。
2.根据权利要求1所述的基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其特征在于,所述CT影像脊柱三维重建模块获取的薄层CT的切片层厚要求小于1.0mm;CT阈值的选取应满足只显示骨质密度,且不显示其他组织密度;CT脊柱模型的保存分辨率选取为1*1*1mm。
3.根据权利要求1所述的基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其特征在于,CT阈值范围应满足>400Hu。
4.根据权利要求1所述的基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其特征在于,所述运动控制模块、机械臂和超声探头在获取超声图像前需进行标定,以消除采样和传输的时间差值;标定分为时间标定和空间标定,时间标定精度小于0.01s,空间标定精度误差需<0.5mm。
5.根据权利要求1所述的基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其特征在于,运动控制模块预设的扫查路径至少囊括一个解剖节段标志点,扫查过程中,超声数据处理模块基于U-Net卷积神经网络行自动化骨表面图像区域的识别和分割,识别和分割帧率满足大于采样帧率。
6.根据权利要求1所述的基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其特征在于,所述配准融合模块在进行两个模型配准时,在解剖节段标志点指导下进行人工选点,人工选点数量≥3个,基于点特征和ICP算法进行配准,以超声脊柱三维模型为基准进行刚性变换,配准误差<1mm。
7.根据权利要求1所述的基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其特征在于,所述超声探头满足50—90mm深度的成像。
8.根据权利要求1所述的基于机器人超声扫查成像的经皮脊柱穿刺定位系统,其特征在于,所述集成支架上还设置有自适应压紧随动装置和辅助穿刺装置;
所述自适应压紧随动装置用于保持扫查过程中超声探头与病人身体的良好的相对位置姿态以保障扫查安全和获取高质量的超声图像;
所述辅助穿刺支架用于辅助医生沿规定路径和置入穿刺针,并显示穿刺针的置入深度。
CN202211213023.1A 2022-09-29 2022-09-29 一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统 Pending CN115553883A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211213023.1A CN115553883A (zh) 2022-09-29 2022-09-29 一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211213023.1A CN115553883A (zh) 2022-09-29 2022-09-29 一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统

Publications (1)

Publication Number Publication Date
CN115553883A true CN115553883A (zh) 2023-01-03

Family

ID=84744279

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211213023.1A Pending CN115553883A (zh) 2022-09-29 2022-09-29 一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统

Country Status (1)

Country Link
CN (1) CN115553883A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116158851A (zh) * 2023-03-01 2023-05-26 哈尔滨工业大学 医用远程超声自动扫描机器人的扫描目标定位系统及方法
CN116869652A (zh) * 2023-08-25 2023-10-13 山东卓业医疗科技有限公司 基于超声图像和电子皮肤的手术机器人及其定位方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116158851A (zh) * 2023-03-01 2023-05-26 哈尔滨工业大学 医用远程超声自动扫描机器人的扫描目标定位系统及方法
CN116869652A (zh) * 2023-08-25 2023-10-13 山东卓业医疗科技有限公司 基于超声图像和电子皮肤的手术机器人及其定位方法
CN116869652B (zh) * 2023-08-25 2024-02-02 山东卓业医疗科技有限公司 基于超声图像和电子皮肤的手术机器人及其定位方法

Similar Documents

Publication Publication Date Title
CN109646089B (zh) 一种基于多模式医学融合图像的脊柱脊髓体表穿刺入路点智能定位系统及方法
WO2022126827A1 (zh) 关于置换手术机器人导航定位系统及方法
CN109195527B (zh) 用于与骨骼手术一起使用的设备及方法
EP4159149A1 (en) Surgical navigation system, computer for performing surgical navigation method, and storage medium
US20180153383A1 (en) Surgical tissue recognition and navigation aparatus and method
CN109925058B (zh) 一种脊柱外科微创手术导航系统
CN109416841B (zh) 影像增强真实度的方法与应用该方法在可穿戴式眼镜的手术导引
CN112220557B (zh) 用于颅脑穿刺的手术导航及机器臂装置及定位方法
JP2020527087A (ja) 超音波拓本技術に基づく脊椎画像生成システム及び脊柱手術用のナビゲーション・位置確認システム
CN115553883A (zh) 一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统
JP2022516642A (ja) 座標系とナビゲーションとの位置合わせのためのシステムおよび方法
CN107854177A (zh) 一种基于光学定位配准的超声与ct/mr图像融合手术导航系统及其方法
JP7111680B2 (ja) デバイス対画像レジストレーションアルゴリズムからの結果の可視化及び操作
US11026752B2 (en) System and method for performing and evaluating a procedure
US20210015562A1 (en) System And Method For Performing And Evaluating A Procedure
CN110537985A (zh) 用于增强现实手术系统的脊柱空间坐标系定位装置及方法
US10806523B2 (en) Adjustable registration frame
CN117064557B (zh) 用于骨科手术的手术机器人
Hassfeld et al. Intraoperative guidance in maxillofacial and craniofacial surgery
US20230263541A1 (en) Robotic spine surgery system
Linte et al. Image-guided procedures: tools, techniques, and clinical applications
CN114283179A (zh) 基于超声图像的骨折远近端空间位姿实时获取与配准系统
Trobaugh et al. Ultrasound in image fusion: A framework and applications
Zixiang et al. Robot-assisted orthopedic surgery
CN109700529B (zh) 一种用于可弯曲刚性组织的导航系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination