CN114948201A - 一种用于腔镜手术的病灶定位方法及系统 - Google Patents
一种用于腔镜手术的病灶定位方法及系统 Download PDFInfo
- Publication number
- CN114948201A CN114948201A CN202210537561.XA CN202210537561A CN114948201A CN 114948201 A CN114948201 A CN 114948201A CN 202210537561 A CN202210537561 A CN 202210537561A CN 114948201 A CN114948201 A CN 114948201A
- Authority
- CN
- China
- Prior art keywords
- visual
- positioning
- model
- focus
- cavity mirror
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000002674 endoscopic surgery Methods 0.000 title claims abstract description 26
- 230000000007 visual effect Effects 0.000 claims abstract description 157
- 238000013459 approach Methods 0.000 claims abstract description 13
- 230000003902 lesion Effects 0.000 claims description 45
- 230000006870 function Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 11
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 230000001131 transforming effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 239000000523 sample Substances 0.000 claims description 4
- 238000002591 computed tomography Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 2
- 230000004807 localization Effects 0.000 claims 2
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000002357 laparoscopic surgery Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 208000027418 Wounds and injury Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000001839 endoscopy Methods 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 238000002271 resection Methods 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002872 contrast media Substances 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- ZCYVEMRRCGMTRW-UHFFFAOYSA-N 7553-56-2 Chemical compound [I] ZCYVEMRRCGMTRW-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008499 blood brain barrier function Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000001218 blood-brain barrier Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000002249 digestive system Anatomy 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 229910052740 iodine Inorganic materials 0.000 description 1
- 239000011630 iodine Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3954—Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3991—Markers, e.g. radio-opaque or breast lesions markers having specific anchoring means to fixate the marker to the tissue, e.g. hooks
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Endoscopes (AREA)
Abstract
本发明提出了一种用于腔镜手术的病灶定位方法及系统,涉及病灶定位技术领域。首先将具有定位识别功能的定位挂钩固定在待处理部位的病灶处,接着对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示,且3D模型中的病灶位置差异性显示,再获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致,最后获取并根据当前定位腔镜杆与定位挂钩的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩则给予提示,从而确定病灶位置。该方法能帮助医生快速、准确地定位病灶,提高手术效率。
Description
技术领域
本发明涉及病灶定位技术领域,具体而言,涉及一种用于腔镜手术的病灶定位方法及系统。
背景技术
腹腔镜手术是一门新发展起来的微创方法,是未来手术方法发展的一个必然趋势,其作为一种常见的微创手术,近年来在临床上得到了迅速普及。腹腔镜手术在一些特定的场合可以代替传统开腹手术,依靠特制的手术器械,以较小的创口完成对体内病灶组织的手术处理。手术损伤小,术后恢复快,使患者获益很大。
做腹腔镜手术之前,会先通过内窥镜检查进行术前病灶定位,得知的病灶的大概位置。之后在实施腹腔镜手术时,医生首先在病人腹部开两三个小切口,然后插入套道作为通道,再把摄像头和相关手术器械从套道伸入,再结合摄像头的画面找寻病灶位置,确定病灶后对病变组织进行切除。但是在现有技术中,在探寻病灶位置时主要靠医生的经验肉眼观察,但是有的病灶位于不易察觉的位置,凸出不明显,无法通过肉眼的观察而实现精确定位。若单纯靠肉眼观察或盲目探查方法来定位病灶位置,其误差大,容易导致不必要的额外脏器损伤,增加手术风险,延长手术时间;另外,腹腔镜手术缺乏直接手的触摸感,无法精准定位,可能导致切除范围不正确、过多切除或切除不够等情况,给患者带来痛苦。
发明内容
本发明的目的在于提供一种用于腔镜手术的病灶定位方法及系统,其能够更加快速、准确地定位病灶,节省手术时间,提高医务人员的工作效率。
本发明的实施例是这样实现的:
第一方面,本申请实施例提供一种用于腔镜手术的病灶定位方法,其包括以下步骤:
将具有定位识别功能的定位挂钩固定在待处理部位的病灶处;
对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示,且3D模型中的病灶位置差异性显示;
获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致;
获取并根据当前定位腔镜杆与定位挂钩的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩则给予提示,从而确定病灶位置。
基于第一方面,在本发明的一些实施例中,上述将具有定位识别功能的定位挂钩固定在待处理部位的病灶处的步骤具体包括:
将带有定位挂钩的内窥镜推送器推入到人体内;
通过内窥镜检查到病灶时,将定位挂钩夹在病灶处。
基于第一方面,在本发明的一些实施例中,上述定位腔镜杆上设有探测装置。
基于第一方面,在本发明的一些实施例中,上述探测装置为RFID探测天线/和霍尔传感器,或超声波探头。
基于第一方面,在本发明的一些实施例中,上述对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示的步骤具体包括:
利用CT扫描获取待处理部位的多个角度的CT图像序列;
根据CT图像序列建立待处理部位的3D模型;
将3D模型进行显示。
基于第一方面,在本发明的一些实施例中,上述获取手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息的步骤具体包括:
通过有线传输的方式获取利用视觉腔镜杆尾部的位移传感器实时监测到的视觉腔镜杆的角度信息,和通过视觉腔镜杆头部的斜面摄像头采集到的实时视觉信息;
将实时视觉信息对应的视觉画面进行显示。
基于第一方面,在本发明的一些实施例中,上述根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致的步骤具体包括:
通过传感器识别模块对手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息进行识别;
根据识别出的信息,计算生成3D模型的旋转参数和缩放参数,并根据旋转参数和缩放参数对3D模型进行旋转和缩放,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致。
第二方面,本申请实施例提供一种用于腔镜手术的病灶定位系统,包括:
定位挂钩,用于固定在待处理部位的病灶处;
3D模型建立模块,用于对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示,且3D模型中的病灶位置差异性显示;
3D模型调整模块,用于获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致;
定位模块,用于获取并根据当前定位腔镜杆与定位挂钩的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩则给予提示,从而确定病灶位置。
第三方面,本申请实施例提供一种电子设备,其包括存储器,用于存储一个或多个程序;处理器。当上述一个或多个程序被上述处理器执行时,实现如上述第一方面中任一项上述的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述第一方面中任一项上述的方法。
相对于现有技术,本发明的实施例至少具有如下优点或有益效果:
本发明实施例提供一种用于腔镜手术的病灶定位方法及系统,通过事先将具有定位识别功能的定位挂钩固定在待处理部位的病灶处,再对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示。此时由于定位挂钩中的金属成分在扫描图像中会有高亮成像,所以得到的待处理部位的3D模型中病灶位置处有明显的高亮标记。然后获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角始终保持一致,方便医生观察,也为医生操作腔镜杆接近病灶进行初步导航。最后,获取并根据当前定位腔镜杆与定位挂钩的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩则给予声音和画面提示,从而帮助医生确定病灶位置。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例一种用于腔镜手术的病灶定位方法的流程图;
图2为本发明实施例中将具有定位识别功能的定位挂钩固定在待处理部位的病灶处的具体流程图;
图3为本发明实施例中对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示的具体流程图;
图4为本发明实施例中获取手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息的具体流程图;
图5为本发明实施例中根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致的具体流程图;
图6为本发明实施例一种用于腔镜手术的病灶定位系统的结构框图;
图7为本发明实施例提供的一种电子设备的结构框图。
图标:1、存储器;2、处理器;3、通信接口;11、定位挂钩;12、3D模型建立模块;13、3D模型调整模块;14、定位模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的各个实施例及实施例中的各个特征可以相互组合。
请参阅图1,图1所示为本申请实施例提供的一种用于腔镜手术的病灶定位方法的流程图。该用于腔镜手术的病灶定位方法具体包括以下步骤:
步骤S1:将具有定位识别功能的定位挂钩11固定在待处理部位的病灶处。
在进行切除手术前,医生首先会通过消化系统内窥镜检查手术将带有定位挂钩11的内窥镜从病人口腔、食道插入到胃肠中,找到病变区域,并将定位挂钩11夹在病灶处,完成术前病灶定位。
在上述步骤中,具有定位识别功能的定位挂钩11主要是通过在挂钩的抓手处配备具有定位识别功能的定位标签得到的。此处的定位标签可以是:微型RFID标签或小型永磁体,或者两者同时使用。
示例性的,如果病灶是一块圆形病变组织,则可以在其四周分别挂上带有微型RFID标签的定位挂钩11,后续再通过RFID探测天线进行探测。具体的,当RFID标签进入到RFID探测天线散发的电磁场内,RFID探测天线即感应接收到标签信息,并且由于每个标签所含的信息不同,所以最终识别出的标签是一一对应的。例如1号标签是在病变组织的上方,2号标签在病变组织的下方,3号标签在病变组织的左侧,4号标签在病变组织的右侧,从而能够根据每个标签在病变组织上的相对位置,探测得到病变组织的大概轮廓,使得定位更加准确,以便医生能将病灶完整的切除,避免过多切除或者切除不完的情况发生。再者,如果病灶是一个小块,那么可以将带有小型永磁体的定位挂钩11挂在其上,后续再通过霍尔感应器对其进行探测,以完成病灶定位。另外,还可以在定位挂钩11上分别挂上微型RFID标签和小型永磁体,然后再通过RFID探测天线和霍尔感应器交替工作以感应识别定位标签,提高探测的灵敏度。
此外,无需在挂钩上安装定位标签也可实现病灶定位,例如,可以在定位腔镜杆上安装超声波探头。由于挂钩的材质与人体的器官区别明显,使用超声波探测会有明显回波信号,从而可根据回波和反射波的时间差计算出距离,最终确定病灶的位置。但是,超声探测定性困难,无法得到病灶的直观图像,定量精度不高,而在腹腔镜手术中最关键的目标就是要定位准确,所以此处采用RFID探测天线和霍尔感应器交替进行探测的方式更为合适。
具体的,请参阅图2,图2所示为本发明实施例中将具有定位识别功能的定位挂钩11固定在待处理部位的病灶处的具体流程图。上述将具有定位识别功能的定位挂钩11固定在待处理部位的病灶处的步骤具体包括:
步骤S1-1:将带有定位挂钩11的内窥镜推送器推入到人体内;
步骤S1-2:通过内窥镜检查到病灶时,将定位挂钩11夹在病灶处。
上述步骤中,可以首先将定位挂钩11的尾部与内窥镜推送器连接,再将内窥镜推送器通过内窥镜管道推入到人体内,然后将定位挂钩11夹在待处理部位的病灶处,最后抽出内窥镜推送器,即达到将定位挂钩11固定在待处理部位的病灶处的目的。需说明的是,定位挂钩11夹在病灶处之后,不会轻易掉落,后续只需通过安装在定位腔镜杆上的探测装置探测感应到定位标签,即可完成病灶的精准定位,方便后续手术的进行。
步骤S2:对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示,且3D模型中的病灶位置差异性显示。
传统的腹腔镜手术中,医生进行术前病灶定位之后,即根据事先内窥镜检查时得知的病灶的大概位置,在病人腹部开两三个小切口,然后插入管道作为通道,再把定位腔镜杆、视觉腔镜杆等手术器械从管道伸入,并结合监视器上的实时显示画面探寻病灶位置。但是在寻找病灶位置时,通常主要靠医生的经验去找,缺乏精准的导航,难以快速、准确地找到病灶位置。
鉴于此,本发明实施例中,事先对带有定位挂钩11的待处理部位进行3D建模,病灶位置将在3D模型中差异性显示,然后通过相关反馈信息对3D模型进行调整,保证3D模型的显示视角与视觉腔镜杆的视角一致,从而为医生操作定位腔镜杆、视觉腔镜杆寻找病灶位置提供导航,以快速、精准的找到病灶位置。
示例性的,将定位挂钩11固定在待处理部位的病灶处之后,可以采用CT增强扫描获得待处理部位的扫描图像,然后对扫描图像进行相应的处理,例如阈值分割、中值滤波、二值化等,再结合立方体算法,以建立待处理部位的3D模型,并将待处理部位的3D模型在显示器上进行显示。示例性的,定位挂钩11中含有金属成分,从而对待处理部位进行扫描时,由于定位挂钩11与人体组织的密度差异较大,定位挂钩11会在扫描图像中高亮成像,即病灶的相对位置会在整个待处理部位的3D模型中差异性显示从而帮助医生得知病灶位置在整个待处理部位中的大概方向,为医生操作腔镜杆接近病灶提供初步导航。
具体的,请参阅图3,图3所示为本发明实施例中对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示的具体流程图。上述对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示的步骤具体包括:
步骤S2-1:利用CT扫描获取待处理部位的多个角度的CT图像序列;
此步骤主要是采用CT增强扫描的方式进行扫描。CT增强扫描指经静脉注入水溶性碘造影剂后再进行扫描,过程中,由于病灶处的组织内血管丰富或血流缓慢,血脑屏障破坏,造影剂在病理组织中停滞、积蓄进而病变组织的密度增高、强化,使病灶处的组织与邻近正常组织间的密度差增加,从而提高病变显示率,加之病灶处固定有定位挂钩11,因此对病灶的定位非常精确。
通过CT增强扫描获得待处理部位的CT图像之后,还需要对CT图像进行如下处理:首先根据获取的原始CT图像和相应的图像参数,计算出转换后的各个像素点的像素值,然后根据转换后的各个像素点的像素值构建一张新的图像,并对新的图像进行二值化处理和中值滤波处理,得到基础CT图像;再计算相邻基础CT图像之间的相似度,获得待处理部位的多个角度的CT图像序列。
步骤S2-2:根据CT图像序列建立待处理部位的3D模型;此步骤主要是计算各个角度的CT图像序列中各个CT图像中包含的像素间隔,并根据像素间隔,利用立方体算法建立待处理部位的三维模型。其中获取像素间隔,利用立方体算法建立三维模型属于现有技术,此处不再赘述。
步骤S2-3:将3D模型进行显示。此步骤主要是将建立好的待处理部位的3D模型在显示器上进行显示,其中病灶位置是差异性显示的,能够为医生寻找病灶位置提供初步方向,同时,也为后续主控单元根据相关反馈信息调整3D模型,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致提供基础。
步骤S3:获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致。
上述步骤中,建立了带有定位挂钩11的待处理部位的3D模型之后,由于在手术过程中,根据手术的需要,医生会对节手术床的倾斜角度进行调节,所以手术实施的视角将会发生变化,病灶距目前探测位置的相对位置也发生变化,原来的3D模型将起不到导航作用,所以需要对3D模型进行调整,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致,从而帮助医生始终明确目标病灶位置,并为医生提供实时导航路线。
示例性的,可以利用手术床上的角度传感器实时监测手术床的仰角以及侧面朝向的倾斜角度,并通过有线传输的方式实时发送给主控单元进行处理。同时,利用视觉腔镜杆尾部的位移传感器实时监测当前视觉腔镜杆的角度信息,并利用视觉腔镜杆头部的斜面摄像头实时获取当前视觉腔镜杆所处位置的视觉画面信息,接着通过有线传输的方式,将视觉腔镜杆的角度信息和视觉信息实时发送给主控单元进行处理。此处采用有线传输的方式,使得信号在传输过程中受到的干扰较小,可靠性更强,并且可扩展性好,可即插即用。主控单元接收到上述信息之后,通过传感器识别模块识别出相应信息,并控制待处理部位的3D模型进行缩放与旋转,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致,并在显示器上实时显示当前带有病灶位置的待处理部位的3D模型图像,同时,视觉腔镜杆的返回视觉画面也实时显示。随后,医生即可根据显示器上的画面控制定位腔镜杆和视觉腔镜杆一步步接近病灶。
具体的,请参阅图4和图5,图4所示为本发明实施例中获取手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息的具体流程图,图5所示为本发明实施例中根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致的具体流程图。
上述获取手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息的步骤具体包括:
步骤S3-1:通过有线传输的方式获取利用视觉腔镜杆尾部的位移传感器实时监测到的视觉腔镜杆的角度信息,和通过视觉腔镜杆头部的斜面摄像头采集到的实时视觉信息;在此步骤中,视觉腔镜杆的头部装有斜面摄像头,其成像角度与视觉腔镜杆呈30度角。在视觉腔镜杆移动、旋转的过程中,其距离病灶的位置、旋转探测的角度和摄像头的变焦倍数,将由尾部的位移传感器实时监测并发送给主控单元进行处理,以得知当前视觉腔镜杆与病灶位置的相对距离,以及当前的视角方向,为后续调整3D模型使得其显示视角与视觉腔镜杆当前的显示视角保持同步提供基础。具体的位移传感器的工作原理属于现有技术,此处不再赘述。
步骤S3-2:将实时视觉信息对应的视觉画面进行显示。此步骤主要是将视觉腔镜杆的头部摄像头所采集到的当前视觉画面信息,通过有线传输的方式实时发送给主控单元,并在显示器上进行显示,帮助医生看到当前视觉腔镜杆所处位置的具体情况。
上述根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致的步骤具体包括:
步骤S3-3:通过传感器识别模块对手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息进行识别;
步骤S3-4:根据识别出的信息,计算生成3D模型的旋转参数和缩放参数,并根据旋转参数和缩放参数对3D模型进行旋转和缩放,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致。
上述步骤中,主控单元接收到相关反馈信息后,通过传感器识别模块分别对各项反馈信息进行解析识别,然后根据识别出的当前手术床的仰角度数和侧面斜角度数建立新的三维坐标系,并根据识别出的当前视觉腔镜杆的角度位置信息,在新的三维坐标系下定位该位置,确定当前新的显示视角。接着,将新的三维坐标系与之前的三维坐标系相对比,得到相关参数,例如旋转参数等,然后根据相关参数并结合带有病灶位置的3D模型的比例尺寸大小,计算生成3D模型的控制参数,包括旋转参数和缩放参数,以对3D模型进行旋转和缩放,使得3D模型在新的坐标系下进行显示,从而3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致。同时,由于3D模型中病灶位置一直差异性显示,所以可以得到当前视角下,视觉腔镜杆距离病灶的相对位置,更好的为医生操作视觉腔镜杆接近病灶提供帮助。
步骤S4:获取并根据当前定位腔镜杆与定位挂钩11的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩11则给予提示,从而确定病灶位置。
上述步骤中,在确定病灶的位置后,以病灶为中心建立三维坐标系,通过定位腔镜杆上的位移传感器监测定位腔镜杆的位移变化,实时更新定位腔镜杆的坐标,并通过有线传输的方式发送给主控单元进行处理,从而确定当前定位腔镜杆与定位挂钩11的实时相对位置和距离。然后医生便可结合显示器上的显示画面,操作定位腔镜杆和视觉腔镜杆一步步接近病灶。当到达目标病灶区域之后,利用定位腔镜杆头部的探测装置在目标病灶区域的小范围内寻找定位标签的位置,一旦定位腔镜杆探测到定位挂钩11则给予提示,从而确定定位标签的位置,并通过视觉腔镜杆返回的视觉画面确定最终具体的病灶位置。
示例性的,RFID探测天线持续不断的发出一定频率的射频信号,当定位标签进入磁场后,接收射频信号,凭借感应电流所获得的能量激活芯片,并发送出存储的信息。当RFID探测天线接收到定位标签发出的信息后,读取信息并解码,然后通过有线传输的方式发送给主控单元进行有关数据处理,主控单元随即发出声音提示,提醒医生探测到定位标签,并且越靠近定位标签,提示声音越急促。医生根据提示声确定病灶位置,接着调整视觉腔镜杆的角度,使得病灶处具体的病变画面进入视觉腔镜杆的摄像范围内,并实时在显示器上显示,确定最终具体的病灶位置。
基于同样的发明构思,请参看图6,图6为本发明实施例提供的一种用于腔镜手术的病灶定位系统的结构框图。本发明还提出一种用于腔镜手术的病灶定位系统,该系统包括:
定位挂钩11,用于固定在待处理部位的病灶处;
3D模型建立模块12,用于对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示,且3D模型中的病灶位置差异性显示;
3D模型调整模块13,用于获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致;
定位模块14,用于获取并根据当前定位腔镜杆与定位挂钩11的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩11则给予提示,从而确定病灶位置。
上述用于腔镜手术的病灶定位系统的具体实施方式请参照上述用于腔镜手术的病灶方法的实施过程,此处不再赘述。
请参阅图7,图7为本发明实施例提供的一种电子设备的结构框图。该电子设备包括存储器1、处理器2和通信接口3,该存储器1、处理器2和通信接口3相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器1可用于存储软件程序及模块,如本申请实施例所提供的一种用于腔镜手术的病灶定位系统对应的程序指令/模块,处理器2通过执行存储在存储器1内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口3可用于与其他节点设备进行信令或数据的通信。
其中,存储器1可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器2可以是一种集成电路芯片,具有信号处理能力。该处理器2可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可以理解,图7所示的结构仅为示意,电子设备还可包括比图7中所示更多或者更少的组件,或者具有与图7所示不同的配置。图7中所示的各组件可以采用硬件、软件或其组合实现。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
上述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
综上所述,本申请实施例提供的一种用于腔镜手术的病灶定位方法及系统,通过事先将具有定位识别功能的定位挂钩固定在待处理部位的病灶处,再对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示。此时由于定位挂钩中的金属成分在扫描图像中会有高亮成像,所以得到的待处理部位的3D模型中病灶位置上有明显的高亮标记。然后获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角始终保持一致,方便医生观察,也为医生操作腔镜杆接近病灶进行初步导航。最后,获取并根据当前定位腔镜杆与定位挂钩的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩则给予声音和画面提示,从而帮助医生确定病灶位置。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (10)
1.一种用于腔镜手术的病灶定位方法,其特征在于,包括以下步骤:
将具有定位识别功能的定位挂钩固定在待处理部位的病灶处;
对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示,且3D模型中的病灶位置差异性显示;
获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致;
获取并根据当前定位腔镜杆与定位挂钩的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩则给予提示,从而确定病灶位置。
2.如权利要求1所述的用于腔镜手术的病灶定位方法,其特征在于,所述将具有定位识别功能的定位挂钩固定在待处理部位的病灶处的步骤具体包括:
将带有定位挂钩的内窥镜推送器推入到人体内;
通过内窥镜检查到病灶时,将定位挂钩夹在病灶处。
3.如权利要求1所述的用于腔镜手术的病灶定位方法,其特征在于,所述定位腔镜杆上设有探测装置。
4.如权利要求3所述的用于腔镜手术的病灶定位方法,其特征在于,所述探测装置为RFID探测天线/和霍尔传感器,或超声波探头。
5.如权利要求1所述的用于腔镜手术的病灶定位方法,其特征在于,所述对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示的步骤具体包括:
利用CT扫描获取待处理部位的多个角度的CT图像序列;
根据CT图像序列建立待处理部位的3D模型;
将3D模型进行显示。
6.如权利要求1所述的用于腔镜手术的病灶定位方法,其特征在于,所述获取手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息的步骤具体包括:
通过有线或无线传输的方式获取利用视觉腔镜杆尾部的位移传感器实时监测到的视觉腔镜杆的角度信息,和通过视觉腔镜杆头部的斜面摄像头采集到的实时视觉信息;
将实时视觉信息对应的视觉画面进行显示。
7.如权利要求1所述的用于腔镜手术的病灶定位方法,其特征在于,所述根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致的步骤具体包括:
通过传感器识别模块对手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息进行识别;
根据识别出的信息,计算生成3D模型的旋转参数和缩放参数,并根据旋转参数和缩放参数对3D模型进行旋转和缩放,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致。
8.一种用于腔镜手术的病灶定位系统,其特征在于,包括:
定位挂钩,用于固定在待处理部位的病灶处;
3D模型建立模块,用于对待处理部位进行扫描,根据扫描图像建立待处理部位的3D模型并显示,且3D模型中的病灶位置差异性显示;
3D模型调整模块,用于获取并根据手术床的仰角和侧面斜角数据、视觉腔镜杆的角度信息和视觉信息对3D模型进行调整变换,使得3D模型的显示视角与视觉腔镜杆的返回视觉画面的视角保持一致;
定位模块,用于获取并根据当前定位腔镜杆与定位挂钩的实时相对位置,引导定位腔镜杆和视觉腔镜杆接近病灶,若定位腔镜杆探测到定位挂钩则给予提示,从而确定病灶位置。
9.一种电子设备,其特征在于,包括:
存储器,用于存储一个或多个程序;
处理器;
当所述一个或多个程序被所述处理器执行时,实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210537561.XA CN114948201A (zh) | 2022-05-18 | 2022-05-18 | 一种用于腔镜手术的病灶定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210537561.XA CN114948201A (zh) | 2022-05-18 | 2022-05-18 | 一种用于腔镜手术的病灶定位方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114948201A true CN114948201A (zh) | 2022-08-30 |
Family
ID=82983362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210537561.XA Withdrawn CN114948201A (zh) | 2022-05-18 | 2022-05-18 | 一种用于腔镜手术的病灶定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114948201A (zh) |
-
2022
- 2022-05-18 CN CN202210537561.XA patent/CN114948201A/zh not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11931117B2 (en) | Surgical guidance intersection display | |
US11484365B2 (en) | Medical image guidance | |
US11103200B2 (en) | Medical device approaches | |
US11944390B2 (en) | Systems and methods for performing intraoperative guidance | |
US11883118B2 (en) | Using augmented reality in surgical navigation | |
US11191423B1 (en) | Endoscopic system and methods having real-time medical imaging | |
EP2460473B1 (en) | Reference image display method for ultrasonography and ultrasonic diagnosis apparatus | |
US20080243142A1 (en) | Videotactic and audiotactic assisted surgical methods and procedures | |
EP2642917B1 (en) | System and method for interactive three dimensional operation guidance system for soft organs based on anatomic map | |
US9918798B2 (en) | Accurate three-dimensional instrument positioning | |
KR20160086629A (ko) | 영상유도 수술에서 수술부위와 수술도구 위치정합 방법 및 장치 | |
WO2019181632A1 (en) | Surgical assistance apparatus, surgical method, non-transitory computer readable medium and surgical assistance system | |
EP2423877A1 (en) | Endoscopic image processing device, method and program | |
JP2018183589A (ja) | 狭い通路における侵襲的手順の内視鏡画像 | |
JP2020531099A (ja) | 手術処置中に関心地点を空間的に場所特定する方法 | |
Nagelhus Hernes et al. | Computer‐assisted 3D ultrasound‐guided neurosurgery: technological contributions, including multimodal registration and advanced display, demonstrating future perspectives | |
JP6952740B2 (ja) | ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム | |
JP6476125B2 (ja) | 画像処理装置、及び手術顕微鏡システム | |
CN114948201A (zh) | 一种用于腔镜手术的病灶定位方法及系统 | |
CN115105202A (zh) | 一种用于腔镜手术中的病灶确认方法及系统 | |
US11657547B2 (en) | Endoscopic surgery support apparatus, endoscopic surgery support method, and endoscopic surgery support system | |
US20240074725A1 (en) | Safety alert based on 4d intracardiac echo (ice) catheter tracking | |
JP2010220787A (ja) | 測距装置及びそのプログラム、並びに測距システム | |
CN114948200A (zh) | 一种用于定位病灶的腔镜手术导航定位系统 | |
CN111991080A (zh) | 一种手术入口的确定方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220830 |