CN112002018A - 一种基于混合现实的术中位置导航系统、装置及方法 - Google Patents
一种基于混合现实的术中位置导航系统、装置及方法 Download PDFInfo
- Publication number
- CN112002018A CN112002018A CN202010832806.2A CN202010832806A CN112002018A CN 112002018 A CN112002018 A CN 112002018A CN 202010832806 A CN202010832806 A CN 202010832806A CN 112002018 A CN112002018 A CN 112002018A
- Authority
- CN
- China
- Prior art keywords
- module
- image
- mixed reality
- intraoperative
- navigation system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000004927 fusion Effects 0.000 claims abstract description 37
- 230000002093 peripheral effect Effects 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 11
- 210000000056 organ Anatomy 0.000 claims description 15
- 230000003190 augmentative effect Effects 0.000 claims description 11
- 210000004204 blood vessel Anatomy 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 210000001503 joint Anatomy 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 6
- 238000002324 minimally invasive surgery Methods 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 4
- 208000032843 Hemorrhage Diseases 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 208000034158 bleeding Diseases 0.000 description 3
- 230000000740 bleeding effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Endoscopes (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种基于混合现实的术中位置导航系统、装置及方法,包括图像处理模块、3D融合控制模块、信号采集模块、屏幕录制模块以及计算机、外设模块;通过信号采集模块对视频信号采集并传输至3D融合控制模块,由3D融合控制模块进行实时动态的将三维模型与实时采集的影像数据进行深度融合,由计算机模块进行显示、输入和存储,同时通过幕录制模块录制屏幕记录增强现实的影像;本发明的基于混合现实的术中位置导航系统通过深度融合术中腔镜信号,实时动态重建数据,以实现术中导航定位降低风险和并发症,同时通过实时的视频录制进行教学。
Description
技术领域
本发明涉及手术模拟技术领域,具体的涉及一种基于混合现实的术中位置导航系统、装置及方法。
背景技术
20世纪以来,以腔镜技术为代表的微创手术技术发展迅速,微创手术与传统的手术相比,其具有创伤小、恢复快、麻醉时间短等优点,因此微创手术得到广泛的应用和发展。然而由于微创手术本身的特点,医生只能通过内窥镜看到病人体内的局部状况,这样对于医生来说手术难度大大加大,而且对经验值的依赖比传统的手术要高,所以对医生来说,术前规划十分重要。
混合现实(MR,MixedReality)指的是合并现实和虚拟世界而产生的新的可视化环境,在新的可视化环境里物理和数字对象共存,并实时互动。混合现实的实现需要在一个能与现实世界各事物相互交互的环境中,如果一切事物都是虚拟的那就是虚拟现实(VR),如果展现出来的虚拟信息只能简单叠加在现实事物上,那就是增强现实(AR);MR的关键点就是与现实世界进行交互和信息的及时获取。
MR混合现实技术是一项前沿的创新技术,它在医疗领域的应用也初具规模,目前也有相关的报道和文献表明,很多科研工作者正在开发相应的产品和方法,如:CN108938087A基于混合现实的手术导航方法,通过预先对病变进行标注,比如肿瘤的位置,可以智能的找到每一个角度对应的开口位置,并且自动预测开口大小;医生通过透视,根据血管分布,可以选择一个最佳的方案进行手术,该发明在术前模拟和规划上有着重大的研究价值;CN104992582B一种基于混合现实的医学微创手术训练系统,通过混合现实的手术过程,实现了真实感很强的医学微创手术的训练,为医院和医学院校提供了良好的训练平台;但是,目前的混合现实技术距离术中应用还有很多问题,原因在于,目前的技术还不能通过接入腔镜信号进行患者重建数据的深度融合,对于实时动态监控器官组织及周边组织的功能还严重不足,同时,对于降低风险和实际手术室应用及帮助、探讨还停留在初步阶段。
综上所述,现有技术的缺陷在于:目前的混合现实技术不能全方位应用于手术中,对于基于混合现实的术中应用及教学缺乏相应的系统、装置及方法。
发明内容
针对现有技术存在的上述问题,本发明提供了一种基于混合现实的术中位置导航系统、装置及方法,通过深度融合术中腔镜信号,实时动态重建数据,以实现术中导航定位降低风险和并发症,同时通过实时的视频录制进行教学。
为实现上述技术目的,达到上述技术效果,本发明是通过以下技术方案实现:
一种基于混合现实的术中位置导航系统,包括:
图像处理模块:用于导入CT图像后识别腔内脏器和血管,生成三维图像;
3D融合控制模块:用于将构建的三维模型与实时采集的影像数据进行深度融合,并实时动态更新显示;
信号采集模块:用于采集视频信号并传输至3D融合控制模块;
屏幕录制模块:用于录制屏幕记录增强现实的影像;
计算机模块:采用传统X64构架,集显示、输入、存储一体,用于集合各模块功能和实现功能操作;
外设模块:用于连接外设设备。
进一步的,所述基于混合现实的术中位置导航系统,通过信号采集模块对视频信号采集并传输至3D融合控制模块,由3D融合控制模块进行实时动态的将三维模型与实时采集的影像数据进行深度融合,由计算机模块进行显示、输入和存储,同时通过幕录制模块录制屏幕记录增强现实的影像。
进一步的,所述采集模块采集的视频信号包括腔镜视频信号和影像设备信号;
所述影像设备信号通过影像采集设备及辅助设备采集影像。
进一步的,所述屏幕录制模块为微软自带的Xbox录制模块。
进一步的,所述计算机模块采用传统X64构架PC/笔记本/一体机,通过外设接口对接外设模块;
所述外设模块包括输入模块、投影模块。
本发明的另一目的在于,提供一种基于混合现实的术中位置导航系统的术中导航装置;
所述术中导航装置包括计算机、高清数码相机、图像采集卡、投影显示设备和外设设备;
所述计算机采用传统X64构架PC/笔记本/一体机,所述高清数码相机采用HDR-CX405高清数码摄像机及辅助支架,所述图像采集卡连接实现高清数码相机和计算机的数据传输,所述投影显示设备为DellP2719H显示器。
本发明的另一目的在于,提供一种基于混合现实的术中位置导航系统的术中位置导航方法;
所述基于混合现实的术中位置导航系统的术中位置导航方法包括以下步骤:
步骤1:连接并调试术中位置导航系统、装置中的的软硬件设备;
步骤2:通过图像处理模块用于导入CT图像后识别腔内脏器和血管,生成三维图像或者直接选择建立的三维图像模型;
步骤3:通过信号采集模块采集对应的腔镜、影像设备的视频信号,并输入计算机通过3D融合控制模块与获取的三维模型进行深度融合;
步骤4:深度融合的影像通过计算机进行动态显示、存储;
步骤5:在步骤2操作过程通过屏幕录制模块录制屏幕记录增强现实的影像。
本发明的另一目的在于,提供一种基于混合现实的术中位置导航系统在术中导航中的应用。
本发明的另一目的在于,提供一种基于混合现实的术中位置导航系统在手术教学及交流中的应用。
本发明的有益效果:
本发明的基于混合现实的术中位置导航系统、装置及方法,包括用于处理图像和构件三维模型的图像处理模块、用于深度融合三维模型与实时采集的影像数据的3D融合控制模块、用于采集视频信号的信号采集模块、用于屏幕录制记录的屏幕录制模块以及计算机、外设模块;通过信号采集模块对视频信号采集并传输至3D融合控制模块,由3D融合控制模块进行实时动态的将三维模型与实时采集的影像数据进行深度融合,由计算机模块进行显示、输入和存储,同时通过幕录制模块录制屏幕记录增强现实的影像;
本发明的基于混合现实的术中位置导航系统,一方面可以将实时采集的视频信号与三模模型进行深度融合,并实时的更新和显示相应的图像信息,实时动态的掌握器官组织的相对位置及其周边器官关系;便于术中无术野区域操作的预测和讨论,大大降低误切的出血风险,让手术更加精准快速;
同时,本发明的基于混合现实的术中位置导航系统带有屏幕录制模块进行记录,有益于后期的学习、交流和教学;
本发明的基于混合现实的术中位置导航系统通过深度融合术中腔镜信号,实时动态重建数据,以实现术中导航定位降低风险和并发症,同时通过实时的视频录制进行教学。
当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例所述基于混合现实的术中位置导航系统的结构框图;
图2为本发明实施例所述基于混合现实的术中位置导航系统的术中位置导航装置的结构框图;
图3为本发明实施例所述基于混合现实的术中位置导航系统的术中位置导航方法流程图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例1
如图1所示
一种基于混合现实的术中位置导航系统,包括:
图像处理模块:用于导入CT图像后识别腔内脏器和血管,生成三维图像;
3D融合控制模块:用于将构建的三维模型与实时采集的影像数据进行深度融合,并实时动态更新显示;
信号采集模块:用于采集视频信号并传输至3D融合控制模块;
屏幕录制模块:用于录制屏幕记录增强现实的影像;
计算机模块:采用传统X64构架,集显示、输入、存储一体,用于集合各模块功能和实现功能操作;
外设模块:用于连接外设设备。
上述基于混合现实的术中位置导航系统,通过信号采集模块对视频信号采集并传输至3D融合控制模块,由3D融合控制模块进行实时动态的将三维模型与实时采集的影像数据进行深度融合,由计算机模块进行显示、输入和存储,同时通过幕录制模块录制屏幕记录增强现实的影像。
所述采集模块采集的视频信号包括腔镜视频信号和影像设备信号;
所述影像设备信号通过影像采集设备及辅助设备采集影像。
所述屏幕录制模块为微软自带的Xbox录制模块。
所述计算机模块采用传统X64构架PC/笔记本/一体机,通过外设接口对接外设模块;
所述外设模块包括输入模块、投影模块。
实施例2
一种基于混合现实的术中位置导航系统的术中导航装置;
所述术中导航装置包括计算机、高清数码相机、图像采集卡、投影显示设备和外设设备;
所述计算机采用传统X64构架PC/笔记本/一体机,所述高清数码相机采用HDR-CX405高清数码摄像机及辅助支架,所述图像采集卡连接实现高清数码相机和计算机的数据传输,所述投影显示设备为DellP2719H显示器。
实施例3
一种基于混合现实的术中位置导航系统的术中位置导航方法;
所述基于混合现实的术中位置导航系统的术中位置导航方法包括以下步骤:
步骤1:连接并调试术中位置导航系统、装置中的的软硬件设备;
步骤2:通过图像处理模块用于导入CT图像后识别腔内脏器和血管,生成三维图像或者直接选择建立的三维图像模型;
步骤3:通过信号采集模块采集对应的腔镜、影像设备的视频信号,并输入计算机通过3D融合控制模块与获取的三维模型进行深度融合;
步骤4:深度融合的影像通过计算机进行动态显示、存储;
步骤5:在步骤2操作过程通过屏幕录制模块录制屏幕记录增强现实的影像。
实施例4
一种基于混合现实的术中位置导航系统在术中导航中的应用。
本发明的基于混合现实的术中位置导航系统,一方面可以将实时采集的视频信号与三模模型进行深度融合,并实时的更新和显示相应的图像信息,实时动态的掌握器官组织的相对位置及其周边器官关系;便于术中无术野区域操作的预测和讨论,大大降低误切的出血风险,让手术更加精准快速;
即在辅助手术进行相关操作时,通过调试好的设备和系统,在进行手术操作时,优先的将术前规划及获取的数据建立的三维模型调出,之后通过采集术中的视频信号,即腔镜的视频信号或外设的视频信号,将其通过3D融合控制模块进行深度融合,融合的图像能实时动态的掌握器官组织的相对位置及其周边器官关系;便于术中无术野区域操作的预测和讨论,大大降低误切的出血风险,让手术更加精准快速。
实施例5
本发明的另一目的在于,提供一种基于混合现实的术中位置导航系统在手术教学及交流中的应用。
本发明的基于混合现实的术中位置导航系统带有屏幕录制模块进行记录,有益于后期的学习、交流和教学;
对于手术过程进行增强现实的记录,在后期的交流学习和教学过程中,可以有较好的素材,同时也可以总结经验。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (9)
1.一种基于混合现实的术中位置导航系统,其特征在于:包括:
图像处理模块:用于导入CT图像后识别腔内脏器和血管,生成三维图像;
3D融合控制模块:用于将构建的三维模型与实时采集的影像数据进行深度融合,并实时动态更新显示;
信号采集模块:用于采集视频信号并传输至3D融合控制模块;
屏幕录制模块:用于录制屏幕记录增强现实的影像;
计算机模块:采用传统X64构架,集显示、输入、存储一体,用于集合各模块功能和实现功能操作;
外设模块:用于连接外设设备。
2.如权利要求1所述基于混合现实的术中位置导航系统,其特征在于:所述基于混合现实的术中位置导航系统,通过信号采集模块对视频信号采集并传输至3D融合控制模块,由3D融合控制模块进行实时动态的将三维模型与实时采集的影像数据进行深度融合,由计算机模块进行显示、输入和存储,同时通过幕录制模块录制屏幕记录增强现实的影像。
3.如权利要求2所述的基于混合现实的术中位置导航系统,其特征在于:所述采集模块采集的视频信号包括腔镜视频信号和影像设备信号;
所述影像设备信号通过影像采集设备及辅助设备采集影像。
4.如权利要求2所述的基于混合现实的术中位置导航系统,其特征在于:所述屏幕录制模块为微软自带的XboxGameBar获捕模块。
5.如权利要求2所述的基于混合现实的术中位置导航系统,其特征在于:所述计算机模块采用传统X64构架PC/笔记本/一体机,通过外设接口对接外设模块;
所述外设模块包括输入模块、投影模块。
6.如权利要求2-5任意一项所述的基于混合现实的术中位置导航系统的术中导航装置,其特征在于:
所述术中导航装置包括计算机、高清数码相机、图像采集卡、投影显示设备和外设设备;
所述计算机采用传统X64构架PC/笔记本/一体机,所述高清数码相机采用HDR-CX405高清数码摄像机及辅助支架,所述图像采集卡连接实现高清数码相机和计算机的数据传输,所述投影显示设备为DellP2719H显示器。
7.如权利要求2-5任意一项所述的基于混合现实的术中位置导航系统的术中位置导航方法,其特征在于:
所述基于混合现实的术中位置导航系统的术中位置导航方法包括以下步骤:
步骤1:连接并调试术中位置导航系统、装置中的的软硬件设备;
步骤2:通过图像处理模块用于导入CT图像后识别腔内脏器和血管,生成三维图像或者直接选择建立的三维图像模型;
步骤3:通过信号采集模块采集对应的腔镜、影像设备的视频信号,并输入计算机通过3D融合控制模块与获取的三维模型进行深度融合;
步骤4:深度融合的影像通过计算机进行动态显示、存储;
步骤5:在步骤2操作过程通过屏幕录制模块录制屏幕记录增强现实的影像。
8.一种如权利要求1所述的基于混合现实的术中位置导航系统在术中导航中的应用。
9.一种如权利要求1所述的基于混合现实的术中位置导航系统在手术教学及交流中的应用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010832806.2A CN112002018A (zh) | 2020-08-18 | 2020-08-18 | 一种基于混合现实的术中位置导航系统、装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010832806.2A CN112002018A (zh) | 2020-08-18 | 2020-08-18 | 一种基于混合现实的术中位置导航系统、装置及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112002018A true CN112002018A (zh) | 2020-11-27 |
Family
ID=73473945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010832806.2A Pending CN112002018A (zh) | 2020-08-18 | 2020-08-18 | 一种基于混合现实的术中位置导航系统、装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112002018A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113143463A (zh) * | 2021-03-16 | 2021-07-23 | 上海交通大学 | 一种手术导航装置、系统、标定方法、介质及电子设备 |
CN113347408A (zh) * | 2021-06-16 | 2021-09-03 | 广州广日电梯工业有限公司 | 电梯故障处理的交互方法、交互装置以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999902A (zh) * | 2012-11-13 | 2013-03-27 | 上海交通大学医学院附属瑞金医院 | 基于ct配准结果的光学导航定位系统及其导航方法 |
CN103371870A (zh) * | 2013-07-16 | 2013-10-30 | 深圳先进技术研究院 | 一种基于多模影像的外科手术导航系统 |
CN109864820A (zh) * | 2019-03-19 | 2019-06-11 | 安徽紫薇帝星数字科技有限公司 | 一种基于ct三维模型映射混合定位导航系统 |
CN111388087A (zh) * | 2020-04-26 | 2020-07-10 | 深圳市鑫君特智能医疗器械有限公司 | 手术导航系统及执行手术导航方法的计算机与存储介质 |
-
2020
- 2020-08-18 CN CN202010832806.2A patent/CN112002018A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999902A (zh) * | 2012-11-13 | 2013-03-27 | 上海交通大学医学院附属瑞金医院 | 基于ct配准结果的光学导航定位系统及其导航方法 |
CN103371870A (zh) * | 2013-07-16 | 2013-10-30 | 深圳先进技术研究院 | 一种基于多模影像的外科手术导航系统 |
CN109864820A (zh) * | 2019-03-19 | 2019-06-11 | 安徽紫薇帝星数字科技有限公司 | 一种基于ct三维模型映射混合定位导航系统 |
CN111388087A (zh) * | 2020-04-26 | 2020-07-10 | 深圳市鑫君特智能医疗器械有限公司 | 手术导航系统及执行手术导航方法的计算机与存储介质 |
Non-Patent Citations (3)
Title |
---|
姜燕等: "基于CT图像的辅助骨肿瘤切除手术的计算机导航系统设计与实现", 《电子设计工程》 * |
梅昆有等: "混合现实技术在肝胆肿瘤手术中的应用", 《中国介入影像与治疗学》 * |
袁媛等: "基于增强现实的鼻内镜微创手术导航系统", 《系统仿真学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113143463A (zh) * | 2021-03-16 | 2021-07-23 | 上海交通大学 | 一种手术导航装置、系统、标定方法、介质及电子设备 |
CN113143463B (zh) * | 2021-03-16 | 2022-08-26 | 上海交通大学 | 一种手术导航装置、系统、标定方法、介质及电子设备 |
CN113347408A (zh) * | 2021-06-16 | 2021-09-03 | 广州广日电梯工业有限公司 | 电梯故障处理的交互方法、交互装置以及存储介质 |
CN113347408B (zh) * | 2021-06-16 | 2023-02-17 | 广州广日电梯工业有限公司 | 电梯故障处理的交互方法、交互装置以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11730545B2 (en) | System and method for multi-client deployment of augmented reality instrument tracking | |
Birlo et al. | Utility of optical see-through head mounted displays in augmented reality-assisted surgery: A systematic review | |
JP2022017422A (ja) | 拡張現実感手術ナビゲーション | |
Gsaxner et al. | The HoloLens in medicine: A systematic review and taxonomy | |
US20210015583A1 (en) | Augmented reality system and method for tele-proctoring a surgical procedure | |
Sielhorst et al. | Advanced medical displays: A literature review of augmented reality | |
CN107296650A (zh) | 基于虚拟现实和增强现实的智能手术辅助系统 | |
JP2009529951A (ja) | 手術ナビゲーションプロセスを記録し精査するための方法および装置 | |
Neubauer et al. | Advanced virtual endoscopic pituitary surgery | |
CN112740285A (zh) | 在虚拟环境中对医学图像的叠加和操纵 | |
CN111986330A (zh) | 一种基于混合现实的术前规划模拟系统、装置及方法 | |
CN115105207A (zh) | 基于混合现实的手术全息导航方法及系统 | |
Edmond et al. | ENT Surgical Stimulator | |
Li et al. | The clinical application value of mixed‐reality‐assisted surgical navigation for laparoscopic nephrectomy | |
CN112002018A (zh) | 一种基于混合现实的术中位置导航系统、装置及方法 | |
CN111770735B (zh) | 手术仿真信息生成方法及程序 | |
US20230114385A1 (en) | Mri-based augmented reality assisted real-time surgery simulation and navigation | |
CN116313028A (zh) | 医疗辅助设备、方法及计算机可读存储介质 | |
CN114711962A (zh) | 一种增强现实手术规划导航系统及方法 | |
WO2020243425A1 (en) | Composite medical imaging systems and methods | |
KR102213412B1 (ko) | 기복모델 생성방법, 장치 및 프로그램 | |
Glombitza et al. | Virtual surgery in a (tele-) radiology framework | |
Ivaschenko et al. | Focused visualization in surgery training and navigation | |
CN115105204A (zh) | 一种腹腔镜增强现实融合显示方法 | |
KR102619729B1 (ko) | 임상 기록 데이터 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201127 |
|
RJ01 | Rejection of invention patent application after publication |