CN110338852A - 一种基于增强现实的触觉可视化穿刺手术导航系统 - Google Patents
一种基于增强现实的触觉可视化穿刺手术导航系统 Download PDFInfo
- Publication number
- CN110338852A CN110338852A CN201810301710.6A CN201810301710A CN110338852A CN 110338852 A CN110338852 A CN 110338852A CN 201810301710 A CN201810301710 A CN 201810301710A CN 110338852 A CN110338852 A CN 110338852A
- Authority
- CN
- China
- Prior art keywords
- puncture
- augmented reality
- puncturing
- navigation system
- system based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 33
- 238000012800 visualization Methods 0.000 title claims abstract description 26
- 210000004872 soft tissue Anatomy 0.000 claims abstract description 15
- 210000001519 tissue Anatomy 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000002675 image-guided surgery Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000009877 rendering Methods 0.000 claims description 4
- 238000004088 simulation Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 claims description 2
- 238000013334 tissue model Methods 0.000 claims description 2
- 238000013178 mathematical model Methods 0.000 abstract description 7
- 238000013079 data visualisation Methods 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 abstract description 3
- 210000004204 blood vessel Anatomy 0.000 abstract 1
- 230000001338 necrotic effect Effects 0.000 abstract 1
- 210000004072 lung Anatomy 0.000 description 14
- 238000001574 biopsy Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 230000001575 pathological effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000007170 pathology Effects 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
- A61B10/02—Instruments for taking cell samples or for biopsy
- A61B10/0233—Pointed or sharp biopsy instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明属于医疗器械领域,具体涉及一种基于增强现实技术的触觉可视化手术穿刺导航系统。本发明中,六自由度力学传感器与穿刺针相连,获得穿刺针穿刺软组织时的穿刺力学数据,多维测力数据分析仪对穿刺力学数据进行分析和处理后,通过无线驱动实时传送给电脑客户端的Unity3D游戏引擎中进行数据可视化显示,与多次同种穿刺实验数据仿真后获得的软组织力‑时间数学模型进行可视化显示比较,医生能够更加直观的观察两者的差异,当两个穿刺力的差值大于设定阈值时,则可判断穿刺到血管或坏死组织,参考视觉可视化导航及时更改穿刺路径或停止穿刺进行取样,提高穿刺精度和降低穿刺失误率。
Description
技术领域
本发明属于医疗器械领域,具体涉及一种基于增强现实的触觉可视化穿刺手术导航系统。
背景技术
恶性肿瘤严重危害人类健康及生命,近年来发病率和死亡率逐渐递增,正确的诊断需要结合临床、影像学及病理学检查三者相结合,才能更加准确地进行诊断。其中,病理学检查对治疗方案的选择起着关键作用。穿刺活检手术是获取肿瘤组织病理诊断的主要方法。穿刺活检手术的主要方法有:传统穿刺、超声引导穿刺、MRI引导穿刺和CT引导穿刺等。视觉和触觉是医生手术中不可缺少的重要参考依据,尤其是3D视觉和触觉可视化。1976年,Haaga首次采用CT引导下经皮肺穿刺活检,使得穿刺精度和活检准确度得到了保证。Grimson第一次描述了一个基于增强现实(AR)导航技术的图像导向神经外科系统,进一步提高了手术的准确度,降低了手术的风险。但是这些穿刺方法中都不含有触觉可视化的部分,不能够实时地呈现出穿刺时触觉的变化情况。本发明中将触觉和视觉相结合应用于穿刺手术系统中进行穿刺导航,很大程度上提高了手术的精度和降低手术风险。
发明内容
本发明的目的在于改善图像引导手术(Image-guide Surgery)方法上的不足,运用增强现实技术,实现被穿刺软组织触觉特性的实时可视化,目的是提供一种机器人视-触可视化穿刺手术导航系统,实现术中实时判断穿刺进程,提高穿刺精度以及活检成功率。
为解决上述技术问题,本发明是通过以下技术方案实现的:
一种基于增强现实的触觉可视化穿刺手术导航系统,所述系统组成包括:图像引导手术穿刺手术器械、直线滚珠丝杆导轨滑台,六自由度力学传感器,多维力学数据分析仪,增强现实显示系统、空间匹配标定设备及计算机;
所述的图像引导手术穿刺手术器械为穿刺针;
所述的多维力学数据分析仪与六自由度力学传感器和计算机均有连接;
所述的六自由度力学传感器,用于获取穿刺手术过程中的力学数据;
所述的多维力学数据分析仪用于对穿刺力学数据进行分析和处理;
所述的计算机用于将接收处理后的穿刺力学数据进行可视化,并创建虚拟的穿刺场景;
所述的增强现实显示系统及匹配标定设备用于将虚拟穿刺场景和真实穿刺环境相融合,并在术中实时呈现给操作者,医生对3D GUI的穿刺力学数据进行分析比较,判断是否继续穿刺或停止穿刺。
一种基于增强现实的触觉可视化穿刺手术导航系统工作流程,主要包括术前和术中两个过程:
术前采集软组织的多层穿刺力学数据,进行拟合,获得人体各层组织的力学特性(穿刺力的时间-力函数模型);将穿刺针和人体穿刺组织进行配准;
术中获得实时传送力学数据,通过算法(神经网络/深度学习/其他算法等)进行匹配后,在3DGUI上实时可视化出穿刺力学数据,参考基于增强现实的视觉导航,实现实时穿刺导航。
优选地,图像引导手术穿刺手术器械为穿刺针,用于对软组织进行穿刺。
优选地,直线滚珠丝杆导轨用于控制穿刺活检针的纵向运动。
优选地,六自由度力学传感器用于获取穿刺针上的穿刺力学数据。
优选地,多维力学数据分析仪内部含有无线驱动,用于穿刺力学数据的发送。
优选地,计算机中包括无线驱动、3D模型制作软件和穿刺导航项目搭建平台。
优选地,虚拟穿刺场景包括空间匹配标定设备模型、穿刺针模型、软组织模型和3DGUI模型,这些模型都是为了与真实环境中相应的模型进行匹配。
进一步优选地,3D GUI模型包含GUI1和GUI2,GUI1用于呈现软组织穿刺力的时间-力函数模型,GUI2用于呈现实时的穿刺力学数据。
与现有的增强现实手术引导技术相比,本发明在3D视觉的基础上加入了触觉可视化的功能,可以有效地判断出穿刺引导中遇到的情况,并及时采取相应的措施,为提高穿刺准确性和活检成功率,降低穿刺风险提供了有效的技术方案。
附图说明
图1是本发明所述基于增强现实的触觉可视化穿刺手术导航系统的硬件设备示意图。
图2是本发明系统流程示意图。
图3是本发明所述基于增强现实的触觉可视化穿刺手术导航系统的匹配及运行工作效果图。
具体实施方式
以下结合实施例和附图,对本发明的具体实施方式进行详细说明。
请参考图1-3所表达的实施例。
如图1所示,本发明提供了一种基于增强现实的触觉可视化穿刺手术导航系统,其包括:直线滚珠丝杆导轨1、tracker追踪器2、六自由度力学传感器3、穿刺针4、软组织盒5、多维力学数据分析仪7、计算机8和Hololens增强现实头盔9;多维力学数据分析仪7与六自由度力学传感器3通过有线相连接,与计算机8通过无线驱动连接,tracker追踪器2和穿刺针4、六自由度力学传感器3固定相连。
多维力学数据分析仪7、计算机8和Hololens增强现实头盔9内部含有无线驱动模块,用于相互传输数据;计算机中8包括3Dmaxs软件、Unity3D游戏引擎和Matlab数据仿真软件。
如图2所示,完成AR触觉可视化穿刺导航操作,主要步骤有:(1)术前准备,(2)术中导航。
(1)术前准备
术前准备包括建立软组织穿刺力学数据数学模型、创建穿刺场景项目和手术配准。
建立软组织穿刺力学数据数学模型:选取猪肺6作为穿刺实验对象,将猪肺6放入软组织盒中,通过的直线滚珠丝杆导轨1的旋转速度来确定穿刺针4的穿刺速度,穿刺针4对猪肺6进行纵向垂直穿刺,六自由度力学传感器3获取x,y和z轴的穿刺力学数据;对猪肺6进行10次穿刺,获得10组时间-穿刺力学数据;多维力学数据分析仪7接收穿刺数据进行分析和处理,通过无线驱动发送给计算机8,计算机8中的Matlab软件分别对猪肺6的10组穿刺数据进行数学模型仿真,获得猪肺6的时间-穿刺力数学模型。
创建穿刺场景项目:计算机8中的3Dmaxs三维动画渲染和制作软件按与真实物体1:1的比例制作tracker追踪器模型、穿刺针模型、猪肺模型、GUI1模型和GUI2模型;如图3所示,将3DMaxs制作的模型FBX文件导入计算机8中的Unity游戏引擎中,通过真实手术场景的位置关系来放置这些模型,GUI1和GUI2分别放置在穿刺针4的左右两侧,方便医生进行实时比较两者的变化情况;编写C#脚本A将猪肺6的时间-穿刺力数学模型导入GUI1中,编写C#脚本B调取多维力学数据分析仪7中的穿刺力学数据导入GUI2中,以及对tracker追踪器2进行实时定位,获取空间位置信息。
手术配准:通过实时获取的tracker追踪器的空间位置信息,tracker追踪器模型实时更新世界坐标系下的位置信息,使其两者完全重合,此时穿刺针和穿刺针模型重合,猪肺和猪肺模型重合。
(2)术中导航
术中导航包括穿刺力获取、穿刺力分析和处理、穿刺力学数据可视化及导航。
穿刺力获取:选取同种猪肺6作为穿刺实验对象,将猪肺6放入软组织盒5中,通过调节直线滚珠丝杆导轨1的旋转速度来确定穿刺针4的穿刺速度,穿刺针4对猪肺6进行纵向垂直穿刺,六自由度力学传感器7获取x,y和z轴的穿刺力学数据。
穿刺力分析和处理:多维力学数据分析仪7接收六自由度力学传感器3获取的穿刺力学数据,进行分析和处理。
穿刺力学数据可视化及导航:如图3所示,计算机8中的Unity3D穿刺项目中的C#脚本B,通过无线驱动实时调取多维力学数据分析仪7处理后的穿刺力学数据进行GUI2实时可视化,GUI1中的猪肺6的时间-穿刺力数学模型和GUI2进行同时可视化显示;通过两者之间的差距来判断穿刺进程及状况,当两者之间的差距大于一定阈值M时,即穿刺针4穿刺到气管或病变组织等异常情况,此时结合增强现实导航进行视觉+触觉的有效判断,进而改变穿刺路径或停止穿刺取病变组织进行活检。
Claims (11)
1.一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于,所述系统包括:图像引导手术穿刺手术器械、直线滚珠丝杆导轨滑台,六自由度力学传感器,多维力学数据分析仪,增强现实显示系统、空间匹配标定设备及计算机;所述的多维力学数据分析仪与图像引导手术穿刺设备和计算机均有连接;一种基于增强现实的触觉可视化穿刺手术导航系统工作流程,主要包括术前和术中两个过程。
2.根据权利要求1所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的图像引导手术穿刺手术器械为穿刺针,用于对软组织进行穿刺。
3.根据权利要求1所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的直线滚珠丝杆导轨滑台用于控制穿刺针的纵向运动。
4.根据权利要求1所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的六自由度力学传感器用于获取穿刺针上的穿刺力学数据,并将数据传送给多维力学数据分析仪。
5.根据权利要求1、4所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的多维力学数据分析仪用于对穿刺力学数据进行分析和处理,内部含有无线驱动,用于穿刺力数据的发送。
6.根据权利要求书1所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的计算机中包括无线驱动、3D模型制作软件和穿刺导航项目搭建平台,用于将接收多维力学数据分析仪处理后的穿刺力学数据进行可视化,并创建虚拟的穿刺场景。
7.根据权利要求书1所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的增强现实显示系统用于将虚拟穿刺场景和真实穿刺环境相结合,并呈现给操作者,并在术中实时呈现给操作者,医生对3D GUI的穿刺力学数据进行分析比较,判断是否继续穿刺或停止穿刺。
8.根据权利要求1所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的术前包括采集人体各层组织的多组穿刺力数据,进行模拟仿真,获得人体各层组织的力学特性(穿刺力的时间-力函数模型);将手术针和人体穿刺组织进行配准。
9.根据权利要求1所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的术中包括获得实时传送力学数据,通过算法(神经网络/深度学习/其他算法等)进行匹配后,在3DGUI上实时可视化出穿刺力学数据,参考基于增强现实的视觉导航,实现实时穿刺导航。
10.根据权利要求7所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的虚拟穿刺场景包括空间匹配标定设备模型、穿刺针模型、软组织模型和3DGUI模型,这些模型都是为了与真实环境中相应的模型进行匹配。
11.根据权利要求7、9所述的一种基于增强现实的触觉可视化穿刺手术导航系统,其特征在于:所述的3D GUI包含GUI1和GUI2,GUI1用于呈现软组织穿刺力的时间-力函数模型,GUI2用于呈现实时的穿刺力学数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810301710.6A CN110338852A (zh) | 2018-04-04 | 2018-04-04 | 一种基于增强现实的触觉可视化穿刺手术导航系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810301710.6A CN110338852A (zh) | 2018-04-04 | 2018-04-04 | 一种基于增强现实的触觉可视化穿刺手术导航系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110338852A true CN110338852A (zh) | 2019-10-18 |
Family
ID=68172748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810301710.6A Pending CN110338852A (zh) | 2018-04-04 | 2018-04-04 | 一种基于增强现实的触觉可视化穿刺手术导航系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110338852A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110974422A (zh) * | 2019-12-19 | 2020-04-10 | 上海钛米机器人科技有限公司 | 穿刺异常检测方法、装置、穿刺设备以及计算机存储介质 |
CN111610860A (zh) * | 2020-05-22 | 2020-09-01 | 江苏濠汉信息技术有限公司 | 一种基于增强现实的取样方法和系统 |
CN114533138A (zh) * | 2021-05-31 | 2022-05-27 | 四川大学 | 一种融合触觉感知的自动化穿刺机构 |
US11875461B2 (en) | 2021-01-22 | 2024-01-16 | Dtis, Llc | Visual data management system and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103006261A (zh) * | 2012-11-28 | 2013-04-03 | 杭州柏拉图科技有限公司 | 一种电磁定位的超声穿刺导航方法 |
US20140046261A1 (en) * | 2007-11-26 | 2014-02-13 | C. R. Bard, Inc. | Magnetic Element-Equipped Needle Assemblies |
CN104867388A (zh) * | 2015-06-09 | 2015-08-26 | 山东大学 | 一种穿刺针植入动物软组织后靶点定位精度的判定模型及判定方法 |
CN105769303A (zh) * | 2016-05-06 | 2016-07-20 | 魏伟 | 一种可视的动脉穿刺置管装置 |
CN106781941A (zh) * | 2016-11-24 | 2017-05-31 | 北京理工大学 | 一种用于模拟微创穿刺手术的方法及其系统 |
-
2018
- 2018-04-04 CN CN201810301710.6A patent/CN110338852A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140046261A1 (en) * | 2007-11-26 | 2014-02-13 | C. R. Bard, Inc. | Magnetic Element-Equipped Needle Assemblies |
CN103006261A (zh) * | 2012-11-28 | 2013-04-03 | 杭州柏拉图科技有限公司 | 一种电磁定位的超声穿刺导航方法 |
CN104867388A (zh) * | 2015-06-09 | 2015-08-26 | 山东大学 | 一种穿刺针植入动物软组织后靶点定位精度的判定模型及判定方法 |
CN105769303A (zh) * | 2016-05-06 | 2016-07-20 | 魏伟 | 一种可视的动脉穿刺置管装置 |
CN106781941A (zh) * | 2016-11-24 | 2017-05-31 | 北京理工大学 | 一种用于模拟微创穿刺手术的方法及其系统 |
Non-Patent Citations (2)
Title |
---|
杨波;何杰民;方世兵;宋磊;尹飚;王;谢景开;万盛钰;: "数字化医学技术与脊柱外科的临床应用", 中国组织工程研究 * |
林家庆;李成刚;侯晓蕾;: "基于修正Kelvin模型的活检针预穿刺模型建立与分析", 机械设计与制造工程 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110974422A (zh) * | 2019-12-19 | 2020-04-10 | 上海钛米机器人科技有限公司 | 穿刺异常检测方法、装置、穿刺设备以及计算机存储介质 |
CN110974422B (zh) * | 2019-12-19 | 2022-03-25 | 上海钛米机器人股份有限公司 | 穿刺异常检测方法、装置、穿刺设备以及计算机存储介质 |
CN111610860A (zh) * | 2020-05-22 | 2020-09-01 | 江苏濠汉信息技术有限公司 | 一种基于增强现实的取样方法和系统 |
US11875461B2 (en) | 2021-01-22 | 2024-01-16 | Dtis, Llc | Visual data management system and method |
CN114533138A (zh) * | 2021-05-31 | 2022-05-27 | 四川大学 | 一种融合触觉感知的自动化穿刺机构 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240289958A1 (en) | Systems and methods for using registered fluoroscopic images in image-guided surgery | |
US11896316B2 (en) | Systems and methods for generating anatomic tree structures using backward pathway growth | |
US10373719B2 (en) | Systems and methods for pre-operative modeling | |
CN110338852A (zh) | 一种基于增强现实的触觉可视化穿刺手术导航系统 | |
US10258413B2 (en) | Human organ movement monitoring method, surgical navigation system and computer readable medium | |
WO2018195221A1 (en) | Graphical user interface for planning a procedure | |
CN108472095A (zh) | 用于机器人外科手术的使用虚拟现实设备的系统、控制器和方法 | |
CN106725852A (zh) | 肺部穿刺的手术导航系统 | |
CN109273091A (zh) | 一种基于术中数据的经皮肾镜取石虚拟手术系统 | |
CN110537980A (zh) | 一种基于运动捕捉和混合现实技术的穿刺手术导航方法 | |
WO2015148529A1 (en) | Interactive systems and methods for real-time laparoscopic navigation | |
Liu et al. | The prospect for the application of the surgical navigation system based on artificial intelligence and augmented reality | |
US20210259776A1 (en) | Hybrid simulation model for simulating medical procedures | |
CN111603205A (zh) | 用于穿刺手术机器人ct舱内三维影像重建和定位分析系统 | |
CN204542390U (zh) | 一种基于增强现实的力反馈手术机器人控制系统 | |
Long et al. | Integrating artificial intelligence and augmented reality in robotic surgery: An initial dvrk study using a surgical education scenario | |
CN115105204A (zh) | 一种腹腔镜增强现实融合显示方法 | |
CN110584780A (zh) | 一种脑出血穿刺手术导航系统 | |
Fu et al. | Augmented reality and human–robot collaboration framework for percutaneous nephrolithotomy: System design, implementation, and performance metrics | |
CN115770108A (zh) | 双机械臂超声引导自动穿刺手术机器人及方法 | |
WO2020176400A1 (en) | Systems and methods for registration of patient anatomy | |
CN103279984A (zh) | 一种基于图形变换矩阵的窥镜视角跟踪方法 | |
Cai et al. | Fast calibration with OTS for AR-based surgical navigation | |
Jha et al. | The Essence of the surgical navigation system using artificial intelligence and augmented reality | |
Wang et al. | A simulation and training system of robot assisted surgery based on virtual reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20191018 |
|
WD01 | Invention patent application deemed withdrawn after publication |