CN112754658A - 一种手术导航系统 - Google Patents

一种手术导航系统 Download PDF

Info

Publication number
CN112754658A
CN112754658A CN202011615122.3A CN202011615122A CN112754658A CN 112754658 A CN112754658 A CN 112754658A CN 202011615122 A CN202011615122 A CN 202011615122A CN 112754658 A CN112754658 A CN 112754658A
Authority
CN
China
Prior art keywords
point cloud
collector
positioning structure
data
navigation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011615122.3A
Other languages
English (en)
Other versions
CN112754658B (zh
Inventor
刘文博
李赞
刘鹏亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sino Precision Beijing Medical Technology Co ltd
Original Assignee
Sino Precision Beijing Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sino Precision Beijing Medical Technology Co ltd filed Critical Sino Precision Beijing Medical Technology Co ltd
Priority to CN202011615122.3A priority Critical patent/CN112754658B/zh
Publication of CN112754658A publication Critical patent/CN112754658A/zh
Application granted granted Critical
Publication of CN112754658B publication Critical patent/CN112754658B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Robotics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提供了一种手术导航系统、控制方法、设备及存储介质;该手术导航系统包括点云采集器、主机,点云采集器能够快速获取目标部位的点云,主机能够对不同位置采集的点云数据进行拼接,获得融合点云,提高了配准效率和精度。

Description

一种手术导航系统
技术领域
本发明涉及医疗器械领域,具体涉及一种手术导航系统。
背景技术
手术导航在神经外科、骨科的手术中有着越来越多的广泛应用,目前的手术导航普遍采取使用骨钉的探针配准,或者使用红外线的多点配准;使用骨钉配准会给病人带来额外的创伤,患者接受度较差;而使用红外线配准耗时相对较长,多点配准数据的信息量有限,配准精度不理想,校验失败率较高,往往需要反复进行手动点配准,延长了手术时间,增加了风险。
因此,如何进行快速配准且保证精度是本领域仍需要解决的技术问题。
发明内容
本发明提供一种新的手术导航系统及其使用方法,以能够解决或部分解决以上技术问题。
第一方面,本发明提供了一种手术导航系统,其包括:
点云采集器,其包含投影组件和摄像组件,或者包含两个摄像组件;
主机,其包括处理器、输入设备和输出设备,被配置成包括但不限于接收、存储和处理数据,建立模型,显示数据,
其中,所述点云采集器为手持扫描设备,使用者手持使用;所述处理器根据点云采集器获得的点云信息建立目标身体部位的融合点云。
本发明中,主机能够接收包含患者目标部位的医学影像数据,建立所述患者目标部位的三维模型,基于三维模型提取影像点云;医学影像可以是任何现有的医学影像技术,例如:计算机断层扫描(CT)、磁共振成像(MRI)、正电子发射断层扫描(PET)、PET-CT、X射线、超声扫描,医学影像数据可以融合使用,例如同时使用CT和MRI数据建立含有多维信息的三维模型,提高三维模型精度。
可选地,本发明的手术导航系统还包括追踪装置,所述追踪装置能够追踪相应的定位结构和安装了定位结构的位置;定位结构与追踪装置配套即可,可以使用不同的方案,例如,使用光学定位结构和光学追踪装置,光学定位结构可以是主动或者被动型的,主动型光学定位结构例如包含能够发射信号的定位球,被动型光学定位结构例如反光球或者角点作为光学标志物形成的刚性结构,光学标志物的排列具有空间特异性,能够被准确的识别。定位结构也可以是电磁定位结构,配套的追踪装置是电磁追踪装置。
进一步地,本发明的手术导航系统中,点云采集器与所述定位结构固定连接或可拆卸连接,使得所述追踪系统能够获得点云采集器的空间位置。
可选地,本发明的手术导航系统中,主机还包括采样通讯模块和采样开关,按下所述采样开关时,采样通讯模块与追踪装置和所述点云采集器通讯连接,追踪模块记录此时点云采集器在所述追踪装置坐标系中的空间位置,同时主机接收点云信息。
可选地,本发明的手术导航系统中,点云采集器与所述定位结构连接,使得追踪系统能够获得点云采集器的空间位置的情况下,处理器中加载了第一点云融合模块,所述第一点云融合模块能够执行以下方法:
确定所述点云采集器到所述定位结构的第一转换矩阵;
根据在该点云采集位置时所述定位结构在光学追踪设备空间坐标系中的空间位置信息确定所述空间定位结构到所述所述追踪装置的第二转换矩阵;
根据所述第一转换矩阵和所述第二转换矩阵将所述点云采集器在该点云采集位置获得的点云数据转换到所述追踪装置空间坐标系中,得到转换后的点云数据;
如此多次,使用多个第二转换矩阵将不同点云采集位置获得的扫描点云统一到光学追踪设备空间坐标系中并进行融合,得到融合点云。
可选地,本发明的手术导航系统中,点云采集器与定位结构连接,使得追踪系统能够获得点云采集器的空间位置的情况下,处理器中加载了第二点云融合模块,所述第二点云融合模块能够执行以下方法:
使用所述点云采集器对目标部位在n个点云采集位置进行点云信息采集,获得对应的n个点云信息,n为大于等于2的正整数;
将所述n个点云分别与所述根据医学影像获得的头部影像点云进行配准,获得n个配准关系,
对所述n个配准关系进行平均,得到融合配准关系。
n个配准关系可以逐步进行,随着n数字的增加配准关系会更加准确,即可以一边扫描一边配准,扫描两次后,使用两次扫描获得的点云数据,得到第一个融合配准关系,继续第三次扫描,之后使用前三次扫描获得的点云数据得到第二融合配准关系,依次类推,扫描次数越多,融合配准关系越准,实现了对配准的迭代校正。
在本发明的另一些实施例中,定位结构与目标身体部位连接或者设置成与目标身体部位附近的结构固定连接;
进一步地,述处理器中加载了第三点云融合模块,所述第三点云融合模块能够执行以下方法:
使用所述点云采集器在不同点云采集位置获得的不同的点云数据,其中点云数据包括定位结构;
根据所述定位结构在所述点云采集器中的空间位置信息,将所述点云采集器在不同点云采集位置获得的点云数据分别转换至以定位结构为原点的定位结构坐标系中,从而将所述点云采集器在不同点云采集位置获得的点云数据融合成融合点云。
可选地,本发明的手术导航系统中,没有定位结构连接的情况下,所述处理器中加载了第四点云融合模块,所述第四点云融合模块能够执行以下方法:
步骤1:使用所述点云采集器对目标部位进行点云信息采集,在第一点云采集位置获得第一点云数据;
步骤2:将所述点云采集器移动到与所述第一位置不同的第二点云采集位置获得第二点云数据;
步骤3:所述处理器对所述第一点云数据和第二点云数据进行融合计算,如果二者有重叠部分,则以第一云数据和第二点云数据生成第一融合点云,如果二者没有重叠部分,则执行步骤4;
步骤4:移动所述点云采集器到与所述第二点云采集位置不同的第三点云采集位置,获得第三点云数据然后继续与第一点云数据进行融合计算,直至获得第一融合点云。
进一步地,该方法中融合点云可以继续与后续的点云数据融合,形成在至少两个不同点云采集位置获得的点云信息的融合。
本发明实施例的创新点包括:
1、本实施例可以接收患者的头部医学影像数据,并建立患者的头部的三维模型,基于三维模型提取医学影像点云,接收至少包括患者头部多个不同位置的点云信息的空间信息数据,根据空间信息数据建立患者的头部表面的融合点云,将医学影像点云和融合点云进行配准,得到转换坐标矩阵。由于本发明实施例中的多个不同位置至少包括患者的脸部和非脸部分,因此,在配准时采用了其他部分的信息,提高了脸部之外部分配准精度,满足临床的需要。
2、本发明实施例中根据至少包括患者头部多个不同位置的点云信息的空间信息数据即可建立患者的头部表面的融合点云,然后根据医学影像点云和融合点云即可进行配准,无需在病人颅骨上打入螺钉或者在脸部贴若干标记物,也无需对标记物进行选择,扫描仪只要数十秒,大大提高了配准速度,节约了手术时间。
3、相比于激光点云配准方式只能获取患者脸部点云信息进行配准,本发明实施例不仅可以获取患者脸部点云信息还可以获取患者头颅其他部分的点云信息进行配准,因此,提高了配准的精度,且由于扫描仪采集的结构光点云信息中的点的数量是激光点云配准方式中激光笔采集的点的数据量的10-200倍,因此,提高了配准精度。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明的手术导航系统的一个实例的示意图;
图2为本发明的手术导航系统的另一个具体实例的示意图;
图3为本发明的手术导航系统的又一个具体实例的示意图;
图4为本发明的手术导航系统的点云采集器的一个实例的示意图;
图5为本发明的手术导航系统的点云采集器的另一个实例的示意图;
图6为本发明的手术导航系统的定位结构的一个具体实例的示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明的实施例中,主机100包括输出设备101、输入设备102,处理器103;点云采集器装置200,定位结构300,追踪装置400。
输出设备101为通常为显示器等,能够将处理器所加载的各种软件、建模模块、点云融合模块等得到的结果显示出来,供使用者直观的查看;输入设备102,可以是用于向主机下达命令和传输数据的各种工具,例如鼠标、键盘、麦克风、USB接口、数据传输接口等;处理器103能够接收、处理数据,加载各种软件和模块,然后输出处理结果,可以使用市售的电脑主机箱;输出设备101、输入设备102和处理器103可以作为一个整体,也可以分开存在,只要能够良好的通讯连接,例如各自通过无线网络Wi Fi和蓝牙等。
点云采集装置200(参见图4和图5)包括投影组件201(或者摄影组件201)、摄影组件202和手柄203;投影组件包含光源、透镜组、数字微镜元件(Di gita l Mi cromi rrorDevi ce)和控制模块,摄影组件为摄像机,手柄203为适于人手持使用点云采集装置200的连接结构,点云采集装置200通常还具有组装使用的壳体;投影组件可以发射特定的编码图像到目标空间并通过摄像组件进行图像采集从而获取目标空间的点云信息。
定位结构300可以是光学定位结构或者电磁定位结构,光学定位结构可以是主动型光学定位结构例如包含能够发射信号的定位球,被动型光学定位结构例如反光球或者角点作为光学标志物形成的刚性结构,参见图6,示出了包含支架主体301和反光球302构成的一个被动型光学定位结构300的实例,其中四个反光球设定成独特的空间位置关系,使得能够唯一的确定定位结构300的空间位置。
定位结构300可以与点云采集器装置200,手术器械、人体、与人体临近的结构(例如病床)等连接,通过追踪装置400获得其空间位置,进而确定采集装置200,手术器械、人体的空间位置。
实施例1:
参见图1,示出了本发明的手术导航系统的一个具体实例,其包括:主机100包括输出设备101、输入设备102,处理器103;点云采集器装置200,定位结构300,光学追踪装置400;点云采集器装置200与定位结构300连接,使得追踪装置400能够获得点云采集器装置200的空间位置;追踪装置400还能够追踪安装了定位结构300的手术器械,例如手术到等。
处理器103加载了第一点云融合模块,第一点云融合模块能够执行以下方法:
确定所述点云采集器200和与其连接的定位结构300的第一转换矩阵;
根据点云采集器200在某个点云采集位置时与其连接的定位结构300在光学追踪装置400空间坐标系中的空间位置信息确定定位结构300到学追踪装置400的第二转换矩阵;
根据第一转换矩阵和所述第二转换矩阵将点云采集器200在该点云采集位置获得的点云数据转换到光学追踪装置400空间坐标系中,得到转换后的点云数据;
如此多次,使用多个第二转换矩阵将不同点云采集位置获得的扫描点云统一到光学追踪设备空间坐标系中并进行融合,得到融合点云。
主机接收医学影像数据,例如CT和/或MRI数据建立三维模型,基于三维模型获得影像点云;获得影像点云的方法两种实例如下:
第一种:建立三维模型的外接球,在外接球的球面均匀采样得到球面点,计算得到所述球面点和球心点的连线与所述三维模型相交的第一个表面点,第一个表面点的合集即为所述影像点云。
第二种:通过图像分割技术提取所述三维模型上的皮肤部分,然后将所述皮肤部分转换成所述影像点云。
然后,使用融合点云与三维模型提取的影像点云进行配准,得到真实空间与虚拟模型的转换关系,从而可以经追踪装置400引导后续的手术器械空间定位。
或者,处理器中加载了第二点云融合模块,所述第二点云融合模块能够执行以下方法:
使用所述点云采集器对目标部位在n个点云采集位置进行点云信息采集,获得对应的n个点云信息,n为大于等于2的正整数;
将所述n个点云分别与所述根据医学影像获得的头部影像点云进行配准,获得n个配准关系,
对所述n个配准关系进行平均,得到融合配准关系。
n个配准关系可以逐步进行,随着n数字的增加配准关系会更加准确,即可以一边扫描一边配准,扫描两次后,使用两次扫描获得的点云数据,得到第一个融合配准关系,继续第三次扫描,之后使用前三次扫描获得的点云数据得到第二融合配准关系,依次类推,扫描次数越多,融合配准关系越准,实现了对配准的迭代校正。
实施例2
参见图1,示出了本发明的手术导航系统的另一个实例,其包括:主机100包括输出设备101、输入设备102,处理器103;点云采集器装置200,定位结构300,光学追踪装置400;定位结构300与病床固定连接,点云采集器装置200能够同时采集目标部位和定位结构300的点云信息;
处理器103加载了第三点云融合模块,第三点云融合模块能够执行以下方法:
使用点云采集器200在不同点云采集位置获得的不同的点云数据,其中点云数据包括定位结构300;
根据所述定位结构300在所述点云采集器200中的空间位置信息,将所述点云采集器在不同点云采集位置获得的点云数据分别转换至以定位结构为原点的定位结构坐标系中,从而将所述点云采集器在不同点云采集位置获得的点云数据融合成融合点云;
然后,主机100使用融合点云与三维模型提取的影像点云进行配准,得到真实空间与虚拟模型的转换关系,并根据定位结构300在追踪装置400中的空间位置,经追踪装置400引导后续的手术器械空间定位。
实施例3
参见图3,示出了本发明的手术导航系统的另一个实例,其包括:主机100包括输出设备101、输入设备102,处理器103;点云采集器装置200,光学追踪装置400;定位结构300仅与手术器械连接,未示出;
处理器103加载了第四点云融合模块,第四点云融合模块能够执行以下方法:
步骤1:使用所述点云采集器对目标部位进行点云信息采集,在第一点云采集位置获得第一点云数据;
步骤2:将所述点云采集器移动到与所述第一位置不同的第二点云采集位置获得第二点云数据;
步骤3:所述处理器对所述第一点云数据和第二点云数据进行融合计算,如果二者有重叠部分,则以第一云数据和第二点云数据生成第一融合点云,如果二者没有重叠部分,则执行步骤4;
步骤4:移动所述点云采集器到与所述第二点云采集位置不同的第三点云采集位置,获得第三点云数据然后继续与第一点云数据进行融合计算,直至获得第一融合点云。
融合点云可以继续与后续的点云数据融合,形成在两个或者更多个不同点云采集位置获得的点云信息的融合。
然后,主机100使用融合点云与三维模型提取的影像点云进行配准,得到真实空间与虚拟模型的转换关系,从而可以经追踪装置400引导后续的手术器械空间定位。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (11)

1.一种手术导航系统,其特征在于,包括:
点云采集器,其包含投影组件和摄像组件,或者包含两个摄像组件;
主机,其包括处理器、输入设备和输出设备,被配置成包括但不限于接收、存储和处理数据,建立模型,显示数据,
其中,所述点云采集器为手持扫描设备,使用者手持使用;所述处理器根据点云采集器获得的点云信息建立目标身体部位的融合点云。
2.根据权利要求1所述的手术导航系统,其特征在于,还包括追踪装置,所述追踪装置能够追踪相应的定位结构和安装了定位结构的位置。
3.根据权利要求2所述的手术导航系统,所述追踪装置是光学追踪装置或电磁追踪装置,所述定位结构是对相应的光学定位结构或电磁追踪装置。
4.根据权利要求2所述的手术导航系统,其特征在于,所述点云采集器与所述定位结构连接,使得所述追踪系统能够获得点云采集器的空间位置。
5.根据权利要求4所述的手术导航系统,其特征在于,所述主机还包括采样通讯模块和采样开关,按下所述采样开关时,所述采样通讯模块与所述追踪装置和所述点云采集器通讯连接,所述追踪模块记录此时点云采集器在所述追踪装置坐标系中的空间位置,同时主机接收点云信息。
6.根据权利要求4所述的手术导航系统,其特征在于,所述处理器中加载了第一点云融合模块,所述第一点云融合模块能够执行以下方法:
确定所述点云采集器到所述定位结构的第一转换矩阵;
根据在该点云采集位置时所述定位结构在光学追踪设备空间坐标系中的空间位置信息确定所述空间定位结构到所述所述追踪装置的第二转换矩阵;
根据所述第一转换矩阵和所述第二转换矩阵将所述点云采集器在该点云采集位置获得的点云数据转换到所述追踪装置空间坐标系中,得到转换后的点云数据;
如此多次,使用多个第二转换矩阵将不同点云采集位置获得的扫描点云统一到光学追踪设备空间坐标系中并进行融合,得到融合点云。
7.根据权利要求4所述的手术导航系统,其特征在于,所述处理器中加载了第二点云融合模块,所述第二点云融合模块能够执行以下方法:
使用所述点云采集器对目标部位在n个点云采集位置进行点云信息采集,获得对应的n个点云信息,n为大于等于2的正整数;
将所述n个点云分别与所述根据医学影像获得的头部影像点云进行配准,获得n个配准关系,
对所述n个配准关系进行平均,得到融合配准关系。
8.如权利要求2所述的手术导航系统,其特征在于,所述定位结构与目标身体部位连接或者设置成与目标身体部位附近的结构固定连接。
9.如权利要求8所述的手术导航系统,其特征在于,所述处理器中加载了第三点云融合模块,所述第三点云融合模块能够执行以下方法:
使用所述点云采集器在不同点云采集位置获得的不同的点云数据,其中点云数据包括定位结构;
根据所述定位结构在所述点云采集器中的空间位置信息,将所述点云采集器在不同点云采集位置获得的点云数据分别转换至以定位结构为原点的定位结构坐标系中,从而将所述点云采集器在不同点云采集位置获得的点云数据融合成融合点云。
10.根据权利要求1所述的手术导航系统,其特征在于,所述处理器中加载了第四点云融合模块,所述第四点云融合模块能够执行以下方法:
步骤1:使用所述点云采集器对目标部位进行点云信息采集,在第一点云采集位置获得第一点云数据;
步骤2:将所述点云采集器移动到与所述第一位置不同的第二点云采集位置获得第二点云数据;
步骤3:所述处理器对所述第一点云数据和第二点云数据进行融合计算,如果二者有重叠部分,则以第一云数据和第二点云数据生成第一融合点云,如果二者没有重叠部分,则执行步骤4;
步骤4:移动所述点云采集器到与所述第二点云采集位置不同的第三点云采集位置,获得第三点云数据然后继续与第一点云数据进行融合计算,直至获得第一融合点云。
11.根据权利要求10所述的手术导航系统,其特征在于,所述方法中融合点云可以继续与后续的点云数据融合,形成在至少两个不同点云采集位置获得的点云信息的融合。
CN202011615122.3A 2020-12-31 2020-12-31 一种手术导航系统 Active CN112754658B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011615122.3A CN112754658B (zh) 2020-12-31 2020-12-31 一种手术导航系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011615122.3A CN112754658B (zh) 2020-12-31 2020-12-31 一种手术导航系统

Publications (2)

Publication Number Publication Date
CN112754658A true CN112754658A (zh) 2021-05-07
CN112754658B CN112754658B (zh) 2023-03-14

Family

ID=75696445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011615122.3A Active CN112754658B (zh) 2020-12-31 2020-12-31 一种手术导航系统

Country Status (1)

Country Link
CN (1) CN112754658B (zh)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020054699A1 (en) * 2000-09-26 2002-05-09 Peter Roesch Device and method of computing a transformation linking two images
CN101097628A (zh) * 2006-06-28 2008-01-02 西门子公司 用于分析两张成像图像的方法以及医学成像系统
CN101916454A (zh) * 2010-04-08 2010-12-15 董洪伟 基于网格变形和连续优化的高分辨率人脸重建方法
US20120082356A1 (en) * 2010-10-02 2012-04-05 Varian Medical Systems, Inc. Image data compression and decompression
CN105701788A (zh) * 2014-11-24 2016-06-22 复旦大学 一种基于全局优化的神经导航自动空间配准方法
CN107218926A (zh) * 2017-05-12 2017-09-29 西北工业大学 一种基于无人机平台的远程扫描的数据处理方法
CN108253911A (zh) * 2018-01-29 2018-07-06 西南交通大学 一种基于测量点几何特征迭代配准的工件位姿调整方法
CN208140024U (zh) * 2018-03-13 2018-11-23 北京浩宇天地测绘科技发展有限公司 一种具有多种扫描模式的三维扫描仪
CN109549705A (zh) * 2019-01-21 2019-04-02 华科精准(北京)医疗科技有限公司 一种手术机器人系统及其使用方法
US20190180467A1 (en) * 2017-12-11 2019-06-13 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for identifying and positioning objects around a vehicle
CN110264567A (zh) * 2019-06-19 2019-09-20 南京邮电大学 一种基于标记点的实时三维建模方法
CN110264504A (zh) * 2019-06-28 2019-09-20 北京国润健康医学投资有限公司 一种用于增强现实的三维配准方法和系统
CN110415362A (zh) * 2019-07-31 2019-11-05 易思维(杭州)科技有限公司 重叠点云融合方法
CN110842940A (zh) * 2019-11-19 2020-02-28 广东博智林机器人有限公司 一种建筑测量机器人多传感器融合三维建模方法及系统
CN111507928A (zh) * 2020-03-27 2020-08-07 福建汇川物联网技术科技股份有限公司 点云数据融合方法、装置设备及存储介质
US10810750B1 (en) * 2017-02-24 2020-10-20 Shining 3D Tech Co., Ltd. Three-dimensional scanning system and scanning method thereof

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020054699A1 (en) * 2000-09-26 2002-05-09 Peter Roesch Device and method of computing a transformation linking two images
CN101097628A (zh) * 2006-06-28 2008-01-02 西门子公司 用于分析两张成像图像的方法以及医学成像系统
CN101916454A (zh) * 2010-04-08 2010-12-15 董洪伟 基于网格变形和连续优化的高分辨率人脸重建方法
US20120082356A1 (en) * 2010-10-02 2012-04-05 Varian Medical Systems, Inc. Image data compression and decompression
CN105701788A (zh) * 2014-11-24 2016-06-22 复旦大学 一种基于全局优化的神经导航自动空间配准方法
US10810750B1 (en) * 2017-02-24 2020-10-20 Shining 3D Tech Co., Ltd. Three-dimensional scanning system and scanning method thereof
CN107218926A (zh) * 2017-05-12 2017-09-29 西北工业大学 一种基于无人机平台的远程扫描的数据处理方法
US20190180467A1 (en) * 2017-12-11 2019-06-13 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for identifying and positioning objects around a vehicle
CN108253911A (zh) * 2018-01-29 2018-07-06 西南交通大学 一种基于测量点几何特征迭代配准的工件位姿调整方法
CN208140024U (zh) * 2018-03-13 2018-11-23 北京浩宇天地测绘科技发展有限公司 一种具有多种扫描模式的三维扫描仪
CN109549705A (zh) * 2019-01-21 2019-04-02 华科精准(北京)医疗科技有限公司 一种手术机器人系统及其使用方法
CN110264567A (zh) * 2019-06-19 2019-09-20 南京邮电大学 一种基于标记点的实时三维建模方法
CN110264504A (zh) * 2019-06-28 2019-09-20 北京国润健康医学投资有限公司 一种用于增强现实的三维配准方法和系统
CN110415362A (zh) * 2019-07-31 2019-11-05 易思维(杭州)科技有限公司 重叠点云融合方法
CN110842940A (zh) * 2019-11-19 2020-02-28 广东博智林机器人有限公司 一种建筑测量机器人多传感器融合三维建模方法及系统
CN111507928A (zh) * 2020-03-27 2020-08-07 福建汇川物联网技术科技股份有限公司 点云数据融合方法、装置设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘晓宏: "基于增强现实的手术导航图像融合方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》 *
张峰峰等: "机器人辅助脊柱手术三维定位导航", 《哈尔滨工程大学学报》 *

Also Published As

Publication number Publication date
CN112754658B (zh) 2023-03-14

Similar Documents

Publication Publication Date Title
CN109549705B (zh) 一种手术机器人系统及其使用方法
US20220008135A1 (en) Augmented reality pre-registration
US11210780B2 (en) Automatic image registration of scans for image-guided surgery
JP5702861B2 (ja) 解剖学的表面の支援型自動データ収集方法
EP2953569B1 (en) Tracking apparatus for tracking an object with respect to a body
CN103735312B (zh) 多模影像超声引导手术导航系统
EP3238649B1 (en) Self-localizing medical device
CN107105972A (zh) 模型登记系统和方法
US10621736B2 (en) Method and system for registering a patient with a 3D image using a robot
KR102233585B1 (ko) 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
EP3328305B1 (en) Microscope tracking based on video analysis
CN112754658B (zh) 一种手术导航系统
CN104224321B (zh) 采用无线面配准的手术导航系统及面配准信号采集方法
WO2023011924A1 (en) 2d/3d image registration using 2d raw images of 3d scan
CN115272356A (zh) Ct图像的多模态融合方法、装置、设备及可读存储介质
CN110368026B (zh) 一种手术辅助装置及系统
JP2022047374A (ja) 手術ナビゲーションシステム、手術ナビゲーション機能を備えた医用撮像システム、および、手術ナビゲーション用の医用画像の位置合わせ方法
EP3747387B1 (en) Wrong level surgery prevention
WO2024067753A1 (zh) 一种配准方法、配准系统、导航信息确定方法和导航系统
WO2019238230A1 (en) Registration of an anatomical body part by detecting a finger pose
JP7375182B2 (ja) 追跡の不正確性の補償
CN211325035U (zh) 一种内外可视的新型内窥镜系统
WO2023227200A1 (en) Robotic calibration
CN114681057A (zh) 一种空间配准方法、装置以及神经外科手术导航系统
CN114631887A (zh) 基于血管校正组织形变的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant