CN109106448A - 一种手术导航方法和装置 - Google Patents
一种手术导航方法和装置 Download PDFInfo
- Publication number
- CN109106448A CN109106448A CN201811004623.0A CN201811004623A CN109106448A CN 109106448 A CN109106448 A CN 109106448A CN 201811004623 A CN201811004623 A CN 201811004623A CN 109106448 A CN109106448 A CN 109106448A
- Authority
- CN
- China
- Prior art keywords
- patient
- perspective model
- real time
- forming module
- time position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Robotics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Processing Or Creating Images (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本申请实施例公开了一种手术导航方法和装置,通过将TOF成像模块采用的坐标系作为标准,把透视模型映射到第一患者实时位置,从而得到用于在AR显示设备上实时显示的第一手术导航图像。其中,透视模型通过对患者手术部位的透视图像进行三维重建而得到;第一患者实时位置可以通过AR显示设备上的TOF成像模块对患者手术部位进行识别而得到。这样,可以解决基于AR的手术导航技术中利用光学追踪器带来的高成本、难改装和计算深度信息速度慢等问题,采用TOF成像模块定位患者的实时位置,降低了包括TOF成像模块的手术导航系统的成本,使得该手术导航系统能能够适应于各种不同医疗环境便捷地改装,而且还能够高效的计算深度信息。
Description
技术领域
本申请涉及医疗器械技术领域,特别是涉及一种手术导航方法和装置。
背景技术
为了使得医生能够清晰地了解手术器械相对病人解剖结构的位置,计算机辅助导航技术被应用到医生的手术过程中。通过在手术过程中对患者手术部位和手术器械进行定位跟踪,向医生显示具有患者手术部位位置及手术器械位置的导航图像,从而使得医生能够根据导航图像开展手术。
为了避免医生的视野在导航图像与手术场景之间频繁切换,以使得医生能够更直观地了解手术场景中手术器械与患者手术部位之间的空间位置关系,增强现实(AugmentedReality,AR)技术被引入到手术导航技术中。在基于AR的手术导航技术中,通过对患者手术部位进行X线透视而形成的透视图像,可以按照AR显示设备上的光学追踪器对患者实时位置的定位被映射到AR显示设备上,从而形成手术导航图像。但是,在手术导航技术中使用光学追踪器,不仅成本较高,而且对于各种不同医疗环境难以便捷地改装,还难以快速计算深度信息。
发明内容
本申请所要解决的技术问题是,提供一种手术导航方法、装置和系统,以使得在定位患者实时位置时使用飞行时间(Time of Flight,TOF)成像模块而不是光学追踪器,从而降低手术导航设备的成本,使得手术导航设备能够适应于各种不同医疗环境便捷地改装,而且还能快速计算深度信息。
第一方面,提供了一种手术导航方法,包括:
获取对患者手术部位的透视图像进行三维重建而得到的透视模型;
获取增强现实显示设备上的飞行时间TOF成像模块对所述患者手术部位进行识别而得到的第一患者实时位置;
在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像;
所述第一手术导航图像用于在所述增强现实显示设备上显示。
在一种可能的实现方式中,在所述透视模型中显示有所述患者手术部位上的水印图案标记;
所述第一患者实时位置具体为所述患者手术部位上的水印图案标记被所述TOF成像模块识别到的位置;
在所述第一手术导航图像中,所述透视模型中的水印图案标记与所述第一患者实时位置相重合。
在另一种可能的实现方式中,该方法还包括:在获取所述透视模型之后,在所述透视模型中选取特定区域并显示;
所述第一患者实时位置具体为,在手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,所述TOF成像模块识别到的所述手术器械上的追踪部件的位置;
在所述第一手术导航图像中,所述透视模型中的所述特定区域与所述第一患者实时位置是相拟合的。
可选地,所述特定区域为在所述透视模型中基于基准点而选取的点集,所述基准点是基于预设规则或用户选取操作而在所述透视模型中确定出来的。
可选地,所述追踪部件为定位球。
可选地,该方法还包括:
获取所述TOF成像模块对在所述患者手术部位附近固定的追踪部件进行识别而得到的第二患者实时位置;
在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像;
所述第二手术导航图像用于在所述增强显示设备上显示。
第二方面,提供了一种手术导航装置,包括:
第一获取单元,用于获取对患者手术部位的透视图像进行三维重建而得到的透视模型;
第二获取单元,用于获取增强现实显示设备上的飞行时间TOF成像模块对所述患者手术部位进行识别而得到的第一患者实时位置;
第一映射单元,用于在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像;
所述第一手术导航图像用于在所述增强现实显示设备上显示。
在一种可能的实现方式中,在所述透视模型中显示有所述患者手术部位上的水印图案标记;
所述第一患者实时位置具体为所述患者手术部位上的水印图案标记被所述TOF成像模块识别到的位置;
在所述第一手术导航图像中,所述透视模型中的水印图案标记与所述第一患者实时位置相重合。
在另一种可能的实现方式中,该装置还包括:第三获取单元,用于在获取所述透视模型之后,在所述透视模型中选取特定区域并显示;
所述第一患者实时位置具体为,在手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,所述TOF成像模块识别到的所述手术器械上的追踪部件的位置;
在所述第一手术导航图像中,所述透视模型中的所述特定区域与所述第一患者实时位置是相拟合的。
可选地,所述预定区域为在所述透视模型中基于基准点而选取的点集,所述基准点是基于预设规则或用户选取操作而在所述透视模型中确定出来的。
可选地,所述追踪部件为定位球。
可选地,该方法还包括:
第四获取单元,用于获取所述TOF成像模块对在所述患者手术部位附近固定的追踪部件进行识别而得到的第二患者实时位置;
第二映射单元,用于在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像;
所述第二手术导航图像用于在所述增强显示设备上显示。
第三方面,还提供了一种手术导航系统,包括处理器、增强现实显示模块以及所述增强现实显示模块上的TOF成像模块;
所述TOF成像模块,用于对所述患者手术部位进行识别,得到第一识别结果;
所述处理器,用于获取对患者手术部位的透视图像进行三维重建而得到的透视模型,获取基于所述第一识别结果而得到的第一患者实时位置,以及,在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像并向所述增强现实显示模块发送;
所述增强现实显示模块,用于接收并显示所述第一手术导航图像。
在一种可能的实现方式中,在所述透视模型中显示有所述患者手术部位上的水印图案标记;
所述第一患者实时位置具体为所述患者手术部位上的水印图案标记被所述TOF成像模块识别到的位置;
在所述第一手术导航图像中,所述透视模型中的水印图案标记与所述第一患者实时位置相重合。
在另一种可能的实现方式中,还包括具有探针和追踪部件的手术器械;
所述处理器,还用于在获取所述透视模型之后,在所述透视模型中选取特定区域并向所述增强现实显示模块发送标记所述特定区域的显示图像;
所述增强现实显示模块,还用于接收并显示所述标记所述特定区域的显示图像;
所述第一患者实时位置具体为,在所述手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,所述TOF成像模块识别到的所述手术器械上的追踪部件的位置;
在所述第一手术导航图像中,所述透视模型中的所述特定区域与所述第一患者实时位置是相拟合的。
可选地,所述处理器,还用于基于预设规则或用户选取操作,在所述透视模型中确定基准点,以及,在所述透视模型中基于基准点选取点集组成所述预定区域。
可选地,所述追踪部件为定位球。
可选地,所述TOF成像模块,还用于对在所述患者手术部位附近固定的追踪部件进行识别,得到第二识别结果;
所述处理器,还用于基于所述第二识别结果而得到的第二患者实时位置,以及,在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像并向所述增强现实显示模块发送;
所述增强现实显示模块,还用于接收并显示所述第二手术导航图像。
在本申请实施例中,通过将TOF成像模块采用的坐标系获作为一个标准,把透视模型映射到第一患者实时位置,从而得到可以用于在AR显示设备上实时显示的第一手术导航图像。其中,透视模型可以通过对患者手术部位的透视图像进行三维重建而得到;第一患者实时位置可以通过AR显示设备上的TOF成像模块对所述患者手术部位进行识别而得到。这样,可以解决基于AR的手术导航技术中利用光学追踪器带来的高成本、难改装和计算深度信息速度慢等问题,采用TOF成像模块定位患者的实时位置,由于TOF成像模块自身的特点,如:成本较低、处理深度信息的速度快、体积小和结构简单等,降低了包括TOF成像模块的手术导航系统的成本,使得该手术导航系统能能够适应于各种不同医疗环境便捷地改装,而且还能够高效的计算深度信息。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例中一应用场景所涉及的手术导航设备的框架示意图;
图2为本申请实施例中一种手术导航方法的流程示例图;
图3为本申请实施例中一种手术导航方法的一示例的流程示例图;
图4为本申请实施例中一种手术导航方法的另一示例的流程示例图;
图5为本申请实施例中一种手术导航装置的结构示例图;
图6为本申请实施例中一种手术导航系统的结构示例图。
具体实施方式
发明人经过研究发现,现有的手术导航系统,采用的是基于AR的手术导航技术,具体通过对患者手术部位进行X线透视而形成的透视图像,再利用手术导航系统中的光学追踪器对患者实时位置的定位,将该定位位置映射到AR显示设备上,从而形成手术导航图像,在AR显示设备上显示以便医生可以同时看到导航图像和手术场景,从而能够更直观地了解手术场景中手术器械与患者手术部位之间的空间位置关系,避免了传统的手术导航技术中需要医生的视野在导航图像与手术场景之间频繁切换进而给手术带来不便的问题。但是,由于该手术导航系统中的光学追踪器,不仅成本较高,而且对于各种不同医疗环境难以便捷地改装,还难以快速计算深度信息。
基于此,在本申请实施例中,为了进一步方便医生在手术中的操作,提高手术导航的智能化水平,本申请实施例中基于AR的手术导航系统,采用TOF成像模块替代光学追踪器,将TOF成像模块采用的坐标系获作为一个标准,把透视模型映射到第一患者实时位置,从而得到可以用于在AR显示设备上实时显示的第一手术导航图像,其中,透视模型可以通过对患者手术部位的透视图像进行三维重建而得到;第一患者实时位置可以通过AR显示设备上的TOF成像模块对所述患者手术部位进行识别而得到。
由此可知,由于TOF成像模块自身的特点,如:成本较低、处理深度信息的速度快、体积小和结构简单等,可以解决基于AR的手术导航技术中利用光学追踪器带来的高成本、难改装和计算深度信息速度慢等问题,故,采用TOF成像模块定位患者的实时位置,降低了包括TOF成像模块的手术导航系统的成本,使得该手术导航系统能够适应于各种不同医疗环境便捷地改装,而且还能够高效的计算深度信息。
举例来说,本申请实施例的场景之一,可以是应用到如图1所示的手术导航设备100中。在该场景中,手术导航设备100中有处理器110、增强现实显示模块120以及所述增强现实显示模块120上的TOF成像模块130;其中,TOF成像模块130和处理器110交互,处理器110和增强现实显示模块120交互。可以理解的是,TOF成像模块130,用于对所述患者手术部位进行识别,得到第一识别结果;处理器110,用于获取对患者手术部位的透视图像进行三维重建而得到的透视模型,获取基于所述第一识别结果而得到的第一患者实时位置,以及,在所述TOF成像模块130采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像并向所述增强现实显示模块120发送;增强现实显示模块120,用于接收并显示所述第一手术导航图像。
可以理解的是,在上述应用场景中,虽然将本申请实施方式的动作描述由处理器110执行,但是本申请在执行主体方面不受限制,只要执行了本申请实施方式所公开的动作即可。
需要说明的是,处理器110可以是该增强现实显示模块120中自带的处理器,也可以是通过网络与该增强现实显示模块120进行数据交互的处理器,在本申请中不进行具体限定。
可以理解的是,上述场景仅是本申请实施例提供的一个场景示例,本申请实施例并不限于此场景。
下面结合附图,通过实施例来详细说明本申请实施例中手术导航方法和系统的具体实现方式。
示例性方法
参见图2,示出了本申请实施例中一种手术导航方法的流程示意图。在本实施例中,所述方法例如可以包括以下步骤:
步骤201,获取对患者手术部位的透视图像进行三维重建而得到的透视模型。
可以理解的是,为了实现手术导航,在手术前需要对患者的手术部位建立透视模型,具体建立透视模型的过程可以是:先对患者手术位置进行透视操作,得到透视图像;再对所得到的透视图像进行三维重建,得到透视模型。其中,透视操作可以是X射线下电子计算机断层扫描(Computed Tomography,简称:CT)。
可以理解的是,建立患者手术部位的透视模型,为后续的手术导航中实时采集到的患者实时位置进行校准,而校准的过程中需要确定固定不变的参考区域。
在一种可能的实现方式中,可以使患者的手术部位在建立的透视模型中显现,作为固定不变的参考区域,具体实现时,可以在进行透视操作之前,对患者手术部位进行显影处理,例如,假设透视操作为CT扫描,那么,可以在CT扫描之前,在患者手术部位对应的体表粘贴标记部件,该标记部件表面具有在CT扫描得到的透视图像中可以显影的材料(如:硫酸钡、钛等)。这样,在患者手术部位的CT透视图像中以及建立的透视模型中,可以通过显影材料留下的水印图案标记,准确的显示出患者的手术部位。需要说明的是,该固定不变的参考区域可以是整个手术部位,也可以是手术部位中的一部分区域,在此不进行限定。
在另一种可能的实现方式中,可以在建立透视模型之后,在该透视模型中选取特定区域并显示,作为固定不变的参考区域,例如,在建立的透视模型中,可以先基于预设规则确定基准点,或者,也可以由医生或者操作人员进行选取操作选择出基准点;再基于选定的该基准点,根据预设程序选取出点集,形成该特定区域。这样,在进行手术导航的过程中,即可通过该特定区域实现对实时采集到的患者实时位置进行校准。需要说明的是,该基准点可以是具有明显特征的点,如发生突变的点;该特定区域一般为手术部位上的区域,也可以是手术部位附近的特殊区域。
利用对患者手术部位的透视图像进行三维重建得到透视模型,是对患者手术过程中进行手术导航,实现实时定位患者位置的必要和重要的环节,故,步骤201得到的透视模型,为后续步骤提供了数据基础。
步骤202,获取增强现实显示设备上的飞行时间TOF成像模块对所述患者手术部位进行识别而得到的第一患者实时位置。
其中,增强现实(Augmented Reality,AR),是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,该技术的目标是在屏幕上把虚拟世界与现实世界叠加在一起并进行互动。具体是指,把原本在现实世界一定时间、空间范围内很难感知到的实体信息(视觉信息,声音,味道,触觉等),通过电脑等科学技术,模拟仿真后再叠加到真实世界,使真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在,将一般情况下人类不可直接感知的信息被感知到,从而达到超越现实的感官体验。
AR技术不仅仅可以将虚拟信息实时添加到真实的环境中,而且还要做到虚拟信息和真实环境的一致显示,AR技术包含了多媒体、三维建模、实时视频显示及控制、多传感器融合、实时跟踪及注册、场景融合等新技术与新手段。AR根据硬件载体设备的不同,可以分为:头盔显示器、计算机、移动设备,眼镜等,基于在手术导航中,需要解放医生的双手,考虑AR设备的人机交互灵活性和可操作性,一般选择AR眼镜作为手术导航的增强现实显示设备。
一般情况下,AR眼镜包含显示屏、摄像机等,其中,摄像机即为TOF成像模块,用于采集用户当前所处的真实环境的图像或者视频,显示屏即为增强现实显示设备,用于显示真实环境视频和虚拟信息的叠加,并且实现人机互动的功能,具体在本实施例中,用于显示第一实时位置信息和透视模型的叠加效果。
TOF成像模块,也称为飞行时间法3D成像模块,其工作原理是:通过向目标实体连续发送光脉冲,然后用传感器接收从目标实体返回的光信号,通过探测光脉冲的往返时间来得到距目标实体的距离。可以理解的是,TOF成像模块,例如可以是TOF相机,具有的特点包括但不限于:成本较低(大约几千元)、体积小、重量轻、可以实时快速的计算深度信息(速度可以达到几十到一百帧每秒(fps),而且不受目标实体表面的灰度和特征的影响,准确的实现三维探测)。
可以理解的是,由于TOF成像模块成本较低、体积小和重量轻的特点,故,可以将该TOF成像模块安装在用于手术导航的增强现实显示设备上,实现对患者手术部位的实时采集;又由于TOF相机可以准确、实时快速的计算深度信息,故,该TOF成像模块还可以对采集到的图像进行实时、准确的识别和处理,得到第一患者实时位置。
第一患者实时位置,是指TOF成像模块识别出的患者的实时位置,该位置具体对应于上述步骤201中可以在透视模型中显示的固定不变的参考区域。一种情况下,如果透视模型中固定不变的参考区域为患者手术部位,则第一患者实时位置可以是TOF成像模块采集并识别出的患者手术部位上的水印图案标记对应的位置;另一种情况下,如果透视模型中固定不变的参考区域为在透视模型中选取特定区域,则第一患者实时位置可以是:在手术器械上的探针在患者手术部位上对应于特定区域的位置进行滑动的过程中,TOF成像模块采集并识别出的该手术器械上的追踪部件的位置。
可以理解的是,该追踪部件是指可以被TOF成像模块识别出的、确定形状的标识部件,例如,为了方便TOF成像模块的识别和计算,由于定位球的球心点容易确定,且计算简单,故,可以选择定位球作为追踪部件。
通过步骤201得到透视模型,通过步骤202利用TOF成像模块对患者的手术部位进行识别得到第一患者实时位置,为该增强现实显示设备为将两者进行叠加得到手术导航图像,做好了数据准备。
步骤203,在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像;所述第一手术导航图像用于在所述增强现实显示设备上显示。
需要说明的是,该第一手术导航图像也可以投射到其他的显示屏幕上进行显示。
可以理解的是,由于实时采集的患者手术部位的图像,是通过TOF成像模块实时采集的,那么,需要在该TOF成像模块的坐标系作为标准坐标系。
增强现实显示设备(如AR眼镜)利用自身的增强现实技术,将步骤201获得的透视模型映射到步骤202识别出的第一患者实时位置上,得到第一手术导航图像。其中,具体映射的过程可以是将透视模型与增强现实显示设备自带的TOF成像模块动态实时采集的患者手术部位的现实场景信息,通过固定不变的参考区域的重合或者拟合实现叠加(即映射)。一种情况下,如果在透视模型中显示有所述患者手术部位上的水印图案标记,那么,在第一手术导航图像中,可以通过将透视模型中的水印图案标记与第一患者实时位置相重合实现映射;另一种情况下,如果在获取透视模型之后在该透视模型中选取特定区域并显示,那么,在第一手术导航图像中,可以通过透视模型中的特定区域与第一患者实时位置相拟合实现映射。需要说明的是,可以根据迭代最近点算法(Iterative Closet Moint Method,简称:ICP算法),计算确定所述特定区域的点集合第一患者实时位置的拟合矩阵,从而实现将透视模型映射到第一患者实时位置的效果。
具体实现时,将透视模型映射在第一患者实时位置上,即根据佩戴该增强现实显示设备的医生的移动,在不断的进行映射操作,将透视模型映射到TOF成像模块最新采集并识别到的第一患者实时位置上,以确保医生所看到的第一手术导航图像为实时、准确的图像信息,从而保障了手术的安全性和可靠性,确保患者的人身安全。
其中,第一手术导航图像,即为增强现实显示设备将透视模型映射到第一患者实时位置后得到并在该增强现实显示设备上显示的图像,该手术导航图像,可以以相同的参考系,同时向医生显示虚拟的透视模型和真实的第一患者实时位置,为医生的手术提供了极大的方便。
可选地,医生还可以通过该增强现实显示设备的触摸显示屏(AR眼镜的镜片)、触摸笔等方式,与该增强现实显示设备进行交互操作,对该增强现实显示设备上显示的患者的手术部位进行操作,如,放大操作或者缩小操作。具体地,医生可以选择关心的区域进行放大显示,以便实时关注该区域的变化;医生也可以根据经验选择可能出现异常的区域进行突出显示,更有针对性的进行患者手术部位的增强现实显示。
可见,通过本实施例的技术方案,可以解决基于AR的手术导航技术中利用光学追踪器带来的高成本、难改装和计算深度信息速度慢等问题,采用TOF成像模块定位患者的实时位置,由于TOF成像模块自身的特点,如:成本较低、处理深度信息的速度快、体积小和结构简单等,降低了包括TOF成像模块的手术导航系统的成本,使得该手术导航系统能能够适应于各种不同医疗环境便捷地改装,而且还能够高效的计算深度信息。
介绍完本申请提供的上述实施例之后,下面对两种确定透视模型中固定不变的参考区域的方式,即,两种不同的手术导航方法,进行详细说明。
参见图3,示出了本申请实施例提供的一种手术导航方法的流程示例图。在本实施例中,所述方法通过手术部位的水印图案标记,实现透视模型和第一患者实时位置信息的实时校准,所述方法具体可以包括:
步骤301,获取对患者手术部位的透视图像进行三维重建而得到的透视模型,在所述透视模型中显示有所述患者手术部位上的水印图案标记;
步骤302,获取增强现实显示设备上的飞行时间TOF成像模块对所述患者手术部位进行识别而得到的所述患者手术部位上的水印图案标记的位置,记作第一患者实时位置;
步骤303,在所述TOF成像模块采用的坐标系下,将所述透视模型中的水印图案标记与所述第一患者实时位置相重合,得到将所述透视模型映射到所述第一患者实时位置后的第一手术导航图像;所述第一手术导航图像用于在所述增强现实显示设备上显示。
具体实现时,该手术导航方法的具体过程可以是:第一步,患者在对手术部位进行透视扫描前,预先在手术部位上留下在透视图像中可以显影的水印图案标记;第二步,对患者手术部位进行透视,得到显示有手术部位水印图案标记的透视图像,并通过对透该视图像的三维重建,建立透视模型,该透视模型显示有手术部位水印图案标记;第三步,开始手术,并在手术的过程中,通过增强现实显示设备上的TOF成像模块,实时对所述患者手术部位进行采集,并识别采集到的图像中的水印图案标记,将该采集到的图像中的水印图案标记的位置记作第一患者实时位置;第四步,将识别得到的第一患者实时位置与透视模型中显示的手术部位水印图案标记重合,得到第一手术导航图像,将该第一手术导航图像通过增强现实显示设备呈现给医生。需要说明的是,为了实现手术导航的实时性和准确性,需要实时的、不断循环的执行第三步和第四步,直到手术完成或者关闭该增强现实显示设备。
可见,该实施例通过TOF成像设备识别第一患者实时位置,并利用患者手术部位上的水印图案标记,实现了在增强现实显示设备上准确、实时显示第一手术导航图像的效果,为医生和患者的提供了优越的手术条件,简化了手术导航的过程,提高了手术导航校准的效率,进而提高了手术的效率。
需要说明的是,上述步骤301~步骤303中的名词、具体实施方式以及效果的描述,可以参见步骤201~步骤203的描述,这里不再赘述。
可以理解的是,手术导航的准确性对于医生和患者而言,都是关系着手术成功与否的关键因素,故,为了确保在手术过程中该导航图像与实际环境中的患者或者患者的手术部位实时同步,即确保手术导航更加准确,本实施例还可以在患者手术部位附近增设固定的追踪部件,该追踪部件可以和实际环境中的物体(例如患者)进行固定连接,从而根据该追踪部件确定第二患者实时位置,对该手术导航实现动态的实时校准,具体可以包括:
步骤304,获取所述TOF成像模块对在所述患者手术部位附近固定的追踪部件进行识别而得到的第二患者实时位置;
步骤305,在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像;所述第二手术导航图像用于在所述增强显示设备上显示。
可以理解的是,具体实现的过程包括:首先,将三维透视模型映射到第一患者实时位置,即可在该三维透视模型中赋予位置信息,该三维透视模型与实际环境的患者重合;接着,可以在患者手术部位设置追踪部件,该追踪部件与患者在实际环境中是刚性连接的,而由于三维透视模型被叠加在患者的位置上,可以理解为追踪部件在叠加后的三维透视模型的相对位置是不变的。因此,TOF成像模块可以通过获取追踪部件的位置信息,间接得到患者手术部位的位置信息,在三维透视模型中,随着追踪部件位置的变化,可以显示患者手术部位的位置的变化,实现在三维透视模型中患者位置的实时显示。
具体实现方式,可以参见上述步骤202~步骤203的描述,这里不再赘述。
可见,通过本实施例的技术方案,不仅降低了包括TOF成像模块的手术导航系统的成本,使得该手术导航系统能能够适应于各种不同医疗环境便捷地改装,而且还能够高效的计算深度信息;而且,通过动态校准,可以使透视模型映射到现实图像中时,位置映射的准确性更高,即,可以准确、高效的实现导航图像中的手术部位和显示环境中的患者手术部位严格重合,适用于要求极高精密度的手术环境。
参见图4,示出了本申请实施例提供的另一种手术导航方法的流程示例图。在本实施例中,所述方法通过在透视模型中选取特定区域,实现透视模型和第一患者实时位置信息的实时校准,所述方法具体可以包括:
步骤401,获取对患者手术部位的透视图像进行三维重建而得到的透视模型;
步骤402,在获取所述透视模型之后,在所述透视模型中选取特定区域并显示;
步骤403,获取增强现实显示设备上的飞行时间TOF成像模块对所述患者手术部位进行识别而得到的第一患者实时位置,其中,第一患者实时位置具体为:利用手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,所述TOF成像模块识别到的所述手术器械上的追踪部件的位置;
步骤404,在所述TOF成像模块采用的坐标系下,将所述透视模型中的所述特定区域与所述第一患者实时位置是相拟合,得到将所述透视模型映射到所述第一患者实时位置后的第一手术导航图像;所述第一手术导航图像用于在所述增强现实显示设备上显示。
对于步骤402,具体过程可以是:在透视图像中,基于预设规则或用户选取操作而在所述透视模型中确定出基准点;基于该基准点选取点集,形成特定区域。
作为一个示例,步骤403中的追踪部件可以为定位球。
具体实现时,该手术导航方法的具体过程可以是:第一步,对患者手术部位进行透视,得到透视图像,并通过对透该视图像的三维重建,建立透视模型;第二步,通过预设规则或用户的选取操作,选取特征较为明显的点作为基准点,然后以该基准点为中心,根据预设程序选取点集,形成特定区域;第三步,利用手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,TOF成像模块识别到的所述手术器械上的追踪部件的位置,记作第一患者实时位置;第四步,将识别得到的第一患者实时位置与透视模型中选取的特定区域通过ICP算法进行拟合,得到第一手术导航图像,将该第一手术导航图像通过增强现实显示设备或者其他的显示屏幕呈现给医生。需要说明的是,为了实现手术导航的实时性和准确性,需要实时的、不断循环的执行第三步和第四步,直到手术完成或者关闭该增强现实显示设备。
可见,该实施例通过TOF成像设备识别第一患者实时位置,并利用在透视模型上选取的特定区域,实现了在增强现实显示设备上准确、实时显示第一手术导航图像的效果,为医生和患者的提供了优越的手术条件,简化了手术导航的过程,提高了手术导航校准的效率,进而提高了手术的效率。
需要说明的是,上述步骤401~步骤403中的名词、具体实施方式以及效果的描述,可以参见步骤201~步骤203的描述,这里不再赘述。
可以理解的是,在手术的过程中,不断的利用手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动,从而使TOF成像模块识别到的所述手术器械上的追踪部件的位置,进而得到第一患者实时位置的实现方式,对于手术导航的实时校准工作存在很大的难度,故,在进行完一次步骤401~步骤404的校准后,后续的手术导航的校准,还可以通过在患者手术部位附近增设固定的追踪部件实现,即,本实施例具体可以包括:
步骤405,获取所述TOF成像模块对在所述患者手术部位附近固定的追踪部件进行识别而得到的第二患者实时位置;
步骤406,在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像;所述第二手术导航图像用于在所述增强显示设备上显示。
具体实现方式,可以参见上述步骤202~步骤203的描述,这里不再赘述。
可以理解的是,在该实施例中,具体的实现方式按照先后顺序包括如下步骤:步骤401→步骤402→步骤403→步骤404→步骤405→步骤406→步骤405→步骤406……→步骤405→步骤406,即,一直循环执行步骤405~步骤406,直到手术完成或者关闭该增强现实显示设备。
可见,通过本实施例的技术方案,不仅降低了包括TOF成像模块的手术导航系统的成本,使得该手术导航系统能能够适应于各种不同医疗环境便捷地改装,而且还能够高效的计算深度信息;而且,结合自主选取特定区域进行手动校准和自动校准,使透视模型映射到现实图像中时,位置映射的准确性更高,即,可以准确、高效的实现导航图像中的手术部位和显示环境中的患者手术部位严格重合,适用于要求极高精密度的手术环境。
示例性设备
参见图5,示出了本申请实施例中一种手术导航装置的结构示意图。在本实施例中,该装置例如具体可以包括:
第一获取单元501,用于获取对患者手术部位的透视图像进行三维重建而得到的透视模型;
第二获取单元502,用于获取增强现实显示设备上的飞行时间TOF成像模块对所述患者手术部位进行识别而得到的第一患者实时位置;
第一映射单元503,用于在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像;
所述第一手术导航图像用于在所述增强现实显示设备上显示。
在一种可能的实现方式中,在所述透视模型中显示有所述患者手术部位上的水印图案标记;
所述第一患者实时位置具体为所述患者手术部位上的水印图案标记被所述TOF成像模块识别到的位置;
在所述第一手术导航图像中,所述透视模型中的水印图案标记与所述第一患者实时位置相重合。
在另一种可能的实现方式中,该装置还包括:第三获取单元,用于在获取所述透视模型之后,在所述透视模型中选取特定区域并显示;
所述第一患者实时位置具体为,在手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,所述TOF成像模块识别到的所述手术器械上的追踪部件的位置;
在所述第一手术导航图像中,所述透视模型中的所述特定区域与所述第一患者实时位置是相拟合的。
可选地,所述预定区域为在所述透视模型中基于基准点而选取的点集,所述基准点是基于预设规则或用户选取操作而在所述透视模型中确定出来的。
可选地,所述追踪部件为定位球。
可选地,该装置还包括:
第四获取单元,用于获取所述TOF成像模块对在所述患者手术部位附近固定的追踪部件进行识别而得到的第二患者实时位置;
第二映射单元,用于在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像;
所述第二手术导航图像用于在所述增强显示设备上显示。
上述描述为手术导航装置的相关描述,其中,具体实现方式以及达到的效果,可以参见图2所示的手术导航方法实施例的描述,这里不再赘述。
参见图6,示出了本申请实施例中一种手术导航系统的结构示意图。在本实施例中,该系统例如具体可以包括:处理器601、增强现实显示模块602以及所述增强现实显示模块602上的TOF成像模块603;
所述TOF成像模块603,用于对所述患者手术部位进行识别,得到第一识别结果;
所述处理器601,用于获取对患者手术部位的透视图像进行三维重建而得到的透视模型,获取基于所述第一识别结果而得到的第一患者实时位置,以及,在所述TOF成像模块603采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像并向所述增强现实显示模块602发送;
所述增强现实显示模块602,用于接收并显示所述第一手术导航图像。
在一种可能的实现方式中,在所述透视模型中显示有所述患者手术部位上的水印图案标记;
所述第一患者实时位置具体为所述患者手术部位上的水印图案标记被所述TOF成像模块识别到的位置;
在所述第一手术导航图像中,所述透视模型中的水印图案标记与所述第一患者实时位置相重合。
在另一种可能的实现方式中,还包括具有探针和追踪部件的手术器械604;
所述处理器601,还用于在获取所述透视模型之后,在所述透视模型中选取特定区域并向所述增强现实显示模块602发送标记所述特定区域的显示图像;
所述增强现实显示模块602,还用于接收并显示所述标记所述特定区域的显示图像;
所述第一患者实时位置具体为,在所述手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,所述TOF成像模块识别到的所述手术器械上的追踪部件的位置;
在所述第一手术导航图像中,所述透视模型中的所述特定区域与所述第一患者实时位置是相拟合的。
可选地,所述处理器601,还用于基于预设规则或用户选取操作,在所述透视模型中确定基准点,以及,在所述透视模型中基于基准点选取点集组成所述预定区域。
可选地,所述追踪部件为定位球。
可选地,所述TOF成像模块603,还用于对在所述患者手术部位附近固定的追踪部件进行识别,得到第二识别结果;
所述处理器601,还用于基于所述第二识别结果而得到的第二患者实时位置,以及,在所述TOF成像模块603采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像并向所述增强现实显示模块602发送;
所述增强现实显示模块602,还用于接收并显示所述第二手术导航图像。
上述描述为手术导航系统的相关描述,其中,具体实现方式以及达到的效果,可以参见图2所示的手术导航方法实施例的描述,这里不再赘述。
本申请实施例中提到的“第一患者实时位置”、“第一手术导航图像”等名称中的“第一”只是用来做名字标识,并不代表顺序上的第一。该规则同样适用于“第二”等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如只读存储器(英文:read-only memory,ROM)/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如路由器等网络通信设备)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于方法实施例和设备实施例而言,由于其基本相似于系统实施例,所以描述得比较简单,相关之处参见系统实施例的部分说明即可。以上所描述的设备及系统实施例仅仅是示意性的,其中作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本申请的优选实施方式,并非用于限定本申请的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (12)
1.一种手术导航方法,其特征在于,包括:
获取对患者手术部位的透视图像进行三维重建而得到的透视模型;
获取增强现实显示设备上的飞行时间TOF成像模块对所述患者手术部位进行识别而得到的第一患者实时位置;
在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像;
所述第一手术导航图像用于在所述增强现实显示设备上显示。
2.根据权利要求1所述的方法,其特征在于,在所述透视模型中显示有所述患者手术部位上的水印图案标记;
所述第一患者实时位置具体为所述患者手术部位上的水印图案标记被所述TOF成像模块识别到的位置;
在所述第一手术导航图像中,所述透视模型中的水印图案标记与所述第一患者实时位置相重合。
3.根据权利要求1所述的方法,其特征在于,还包括:在获取所述透视模型之后,在所述透视模型中选取特定区域并显示;
所述第一患者实时位置具体为,在手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,所述TOF成像模块识别到的所述手术器械上的追踪部件的位置;
在所述第一手术导航图像中,所述透视模型中的所述特定区域与所述第一患者实时位置是相拟合的。
4.根据权利要求3所述的方法,其特征在于,所述特定区域为在所述透视模型中基于基准点而选取的点集,所述基准点是基于预设规则或用户选取操作而在所述透视模型中确定出来的。
5.根据权利要求3所述的方法,其特征在于,所述追踪部件为定位球。
6.根据权利要求2或3所述的方法,其特征在于,还包括:
获取所述TOF成像模块对在所述患者手术部位附近固定的追踪部件进行识别而得到的第二患者实时位置;
在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像;
所述第二手术导航图像用于在所述增强显示设备上显示。
7.一种手术导航装置,其特征在于,包括:
第一获取单元,用于获取对患者手术部位的透视图像进行三维重建而得到的透视模型;
第二获取单元,用于获取增强现实显示设备上的飞行时间TOF成像模块对所述患者手术部位进行识别而得到的第一患者实时位置;
第一映射单元,用于在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第一患者实时位置,得到第一手术导航图像;
所述第一手术导航图像用于在所述增强现实显示设备上显示。
8.根据权利要求7所述的装置,其特征在于,在所述透视模型中显示有所述患者手术部位上的水印图案标记;
所述第一患者实时位置具体为所述患者手术部位上的水印图案标记被所述TOF成像模块识别到的位置;
在所述第一手术导航图像中,所述透视模型中的水印图案标记与所述第一患者实时位置相重合。
9.根据权利要求7所述的装置,其特征在于,还包括:第三获取单元,用于在获取所述透视模型之后,在所述透视模型中选取特定区域并显示;
所述第一患者实时位置具体为,在手术器械上的探针在所述患者手术部位上对应于所述特定区域的位置进行滑动的过程中,所述TOF成像模块识别到的所述手术器械上的追踪部件的位置;
在所述第一手术导航图像中,所述透视模型中的所述特定区域与所述第一患者实时位置是相拟合的。
10.根据权利要求9所述的装置,其特征在于,所述预定区域为在所述透视模型中基于基准点而选取的点集,所述基准点是基于预设规则或用户选取操作而在所述透视模型中确定出来的。
11.根据权利要求9所述的装置,其特征在于,所述追踪部件为定位球。
12.根据权利要求8或9所述的装置,其特征在于,还包括:
第四获取单元,用于获取所述TOF成像模块对在所述患者手术部位附近固定的追踪部件进行识别而得到的第二患者实时位置;
第二映射单元,用于在所述TOF成像模块采用的坐标系下,将所述透视模型映射到所述第二患者实时位置,得到第二手术导航图像;
所述第二手术导航图像用于在所述增强显示设备上显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811004623.0A CN109106448A (zh) | 2018-08-30 | 2018-08-30 | 一种手术导航方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811004623.0A CN109106448A (zh) | 2018-08-30 | 2018-08-30 | 一种手术导航方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109106448A true CN109106448A (zh) | 2019-01-01 |
Family
ID=64860232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811004623.0A Pending CN109106448A (zh) | 2018-08-30 | 2018-08-30 | 一种手术导航方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109106448A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109730771A (zh) * | 2019-03-19 | 2019-05-10 | 安徽紫薇帝星数字科技有限公司 | 一种基于ar技术的手术导航系统 |
CN113081268A (zh) * | 2021-03-31 | 2021-07-09 | 上海电气集团股份有限公司 | 基于AR和IoT的手术引导系统 |
CN113539436A (zh) * | 2020-04-20 | 2021-10-22 | 佳能医疗系统株式会社 | 医用图像显示装置、医用图像输出装置、医用图像用介质以及医用图像显示装置控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106297471A (zh) * | 2016-10-25 | 2017-01-04 | 深圳市科创数字显示技术有限公司 | Ar和vr相结合的可移动眼角膜智能手术培训系统 |
CN107374729A (zh) * | 2017-08-21 | 2017-11-24 | 上海霖晏医疗科技有限公司 | 基于ar技术的手术导航系统及方法 |
CN107608080A (zh) * | 2017-10-31 | 2018-01-19 | 深圳增强现实技术有限公司 | 智能ar眼镜及智能ar眼镜景深信息获取方法 |
CN107912061A (zh) * | 2015-03-06 | 2018-04-13 | 伊利诺斯工具制品有限公司 | 用于焊接的传感器辅助头戴式显示器 |
CN108309450A (zh) * | 2017-12-27 | 2018-07-24 | 刘洋 | 用于手术导航的定位配准系统及方法 |
-
2018
- 2018-08-30 CN CN201811004623.0A patent/CN109106448A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107912061A (zh) * | 2015-03-06 | 2018-04-13 | 伊利诺斯工具制品有限公司 | 用于焊接的传感器辅助头戴式显示器 |
CN106297471A (zh) * | 2016-10-25 | 2017-01-04 | 深圳市科创数字显示技术有限公司 | Ar和vr相结合的可移动眼角膜智能手术培训系统 |
CN107374729A (zh) * | 2017-08-21 | 2017-11-24 | 上海霖晏医疗科技有限公司 | 基于ar技术的手术导航系统及方法 |
CN107608080A (zh) * | 2017-10-31 | 2018-01-19 | 深圳增强现实技术有限公司 | 智能ar眼镜及智能ar眼镜景深信息获取方法 |
CN108309450A (zh) * | 2017-12-27 | 2018-07-24 | 刘洋 | 用于手术导航的定位配准系统及方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109730771A (zh) * | 2019-03-19 | 2019-05-10 | 安徽紫薇帝星数字科技有限公司 | 一种基于ar技术的手术导航系统 |
CN113539436A (zh) * | 2020-04-20 | 2021-10-22 | 佳能医疗系统株式会社 | 医用图像显示装置、医用图像输出装置、医用图像用介质以及医用图像显示装置控制方法 |
CN113081268A (zh) * | 2021-03-31 | 2021-07-09 | 上海电气集团股份有限公司 | 基于AR和IoT的手术引导系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2953569B1 (en) | Tracking apparatus for tracking an object with respect to a body | |
EP2099378B1 (en) | Apparatus for determining a position of a first object within a second object | |
CN110494921A (zh) | 利用三维数据增强患者的实时视图 | |
CN104883975B (zh) | 将3d超声和2d x射线影像组合的实时场景建模 | |
US20080123910A1 (en) | Method and system for providing accuracy evaluation of image guided surgery | |
US20070018975A1 (en) | Methods and systems for mapping a virtual model of an object to the object | |
CN110264504B (zh) | 一种用于增强现实的三维配准方法和系统 | |
CN107374729A (zh) | 基于ar技术的手术导航系统及方法 | |
CN105611877A (zh) | 引导超声图像采集的方法和系统 | |
CN112509119B (zh) | 针对颞骨的空间数据处理及定位方法、装置及电子设备 | |
CN209392096U (zh) | 一种手术导航系统 | |
Hu et al. | Head-mounted augmented reality platform for markerless orthopaedic navigation | |
CN109106448A (zh) | 一种手术导航方法和装置 | |
US11847730B2 (en) | Orientation detection in fluoroscopic images | |
US10078906B2 (en) | Device and method for image registration, and non-transitory recording medium | |
CN111973273A (zh) | 基于ar技术的手术导航系统、方法、设备和介质 | |
CN111658142A (zh) | 一种基于mr的病灶全息导航方法及系统 | |
US20230074630A1 (en) | Surgical systems and methods for positioning objects using augmented reality navigation | |
JP2003079616A (ja) | 身体部位に挿入された検査器具の3次元位置の検出方法 | |
JP2016168078A (ja) | 医用観察支援システム及び臓器の3次元模型 | |
EP3807900A1 (en) | Registration of an anatomical body part by detecting a finger pose | |
CN115624384B (zh) | 基于混合现实技术的手术辅助导航系统、方法和存储介质 | |
CN117918955B (zh) | 一种增强现实外科导航装置、方法、系统设备及介质 | |
CN107865695A (zh) | 一种医学影像辅助引导治疗导航系统 | |
US20220096165A1 (en) | Interventional device tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190101 |
|
RJ01 | Rejection of invention patent application after publication |