CN107714175B - 一种手术导航定位方法及装置 - Google Patents

一种手术导航定位方法及装置 Download PDF

Info

Publication number
CN107714175B
CN107714175B CN201710866551.XA CN201710866551A CN107714175B CN 107714175 B CN107714175 B CN 107714175B CN 201710866551 A CN201710866551 A CN 201710866551A CN 107714175 B CN107714175 B CN 107714175B
Authority
CN
China
Prior art keywords
image
images
white light
pixel
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710866551.XA
Other languages
English (en)
Other versions
CN107714175A (zh
Inventor
迟崇巍
王丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Digital Precision Medical Technology Co Ltd
Original Assignee
Beijing Digital Precision Medical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Digital Precision Medical Technology Co Ltd filed Critical Beijing Digital Precision Medical Technology Co Ltd
Priority to CN201710866551.XA priority Critical patent/CN107714175B/zh
Publication of CN107714175A publication Critical patent/CN107714175A/zh
Application granted granted Critical
Publication of CN107714175B publication Critical patent/CN107714175B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition

Abstract

本发明提供了一种手术导航定位方法及装置。步骤S1:获取多光谱、不同角度、不同位置的荧光图像和白光图像;步骤S2:提取荧光图像和白光图像的纹理特征;步骤S3:选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并将图像序列中相邻的图像作为匹配图像,得到匹配图像的相对相机姿态;步骤S4:根据稠密跟踪原理建立稠密跟踪的代价函数;步骤S5:将代价函数采用Huber范数正则化方法建立最优化能量函数,得到基准图像的深度图;步骤S6:重复步骤S3~S5,计算得到所有荧光图像和白光图像的深度图;步骤S7:将所有深度图序列采用对应的纹理特征进行加权平滑,获得最终的观测物体三维深度信息。

Description

一种手术导航定位方法及装置
技术领域
本发明涉及定位领域,尤其涉及一种手术导航设备的定位方法,具体的讲是一种基于稠密跟踪的手术导航定位方法及装置。
背景技术
本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
手术过程中如何快速、准确、客观的定位肿瘤及其他病灶组织的边界一直是国际上的研究热点和挑战性问题。现有的医学影像技术在术前诊断与术后评估方面都发挥着重要的作用,然而适合外科医生进行术中成像的影像方法却难觅踪迹。随着影像学技术的发展,光学分子影像手术导航为该问题的解决提供了可能。光学分子影像是在活体状态下对生物过程进行分子细胞水平的定性和定量分析,实现对生物体早期生理、病理变化的无创、动态、连续、在体成像。与其他成像技术相比,具有灵敏度高、无放射性、结果直观、成像快速以及使用成本低等诸多优点,可以在病变早期实现在体成像。手术导航技术是一种在术中辅助临床医生对病变组织施行准确定位及对病灶区域实施精确切除的方法。光学分子影像手术导航可以针对早期及微小病变帮助医生在术中对病灶区域实施准确切除手术。
现今的手术导航系统大多通过检测标记点实时跟踪手术器械并在虚拟场景中显示,从而使医生能够在术中定位病灶区域。然而,在术中产生特定的标记点需要结合术中解剖结构影像,实时程度较低,操作繁琐。
应该注意,上面对技术背景的介绍只是为了方便对本发明的技术方案进行清楚、完整的说明,并方便本领域技术人员的理解而阐述的。不能仅仅因为这些方案在本发明的背景技术部分进行了阐述而认为上述技术方案为本领域技术人员所公知。
发明内容
本发明的目的是提供一种基于稠密跟踪的手术导航定位方法及装置,以解决分子影像手术导航系统术中的光学定位问题。
为了实现所述目的,本发明提供一种手术导航定位方法,包括以下步骤:步骤 S1:获取多光谱、不同角度、不同位置的荧光图像和白光图像;步骤S2:提取所述荧光图像和白光图像的纹理特征,作为稠密跟踪方法的像素标记点;步骤S3:在所述荧光图像和白光图像的图像序列中选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并将所述图像序列中相邻的图像作为匹配图像,得到所述匹配图像的相对相机姿态;步骤S4:根据所述荧光图像和白光图像的图像序列中的匹配图像的相对相机姿态将对应的图像像素标记点投影到基准图像平面,根据稠密跟踪原理建立稠密跟踪的代价函数;步骤 S5:将所述代价函数采用Huber范数正则化方法建立最优化能量函数,并采用交替迭代方法求解所述最优化能量函数,得到所述基准图像的深度图;步骤S6:将所述步骤S3中的所述荧光图像和白光图像的图像序列中的基准图像的下一幅图像作为基准图像,重复步骤S3~S5,计算得到所有荧光图像和白光图像的深度图;步骤S7:将所述步骤S6得到的深度图序列采用对应的纹理特征进行加权平滑,矫正深度估计结果,获得最终的观测物体三维深度信息。
为了实现所述目的,本发明还提供一种手术导航定位装置,包括:图像获取模块,用于获取多光谱、不同角度、不同位置的荧光图像和白光图像;纹理特征提取模块,用于提取所述荧光图像和白光图像的纹理特征,作为稠密跟踪方法的像素标记点;相对相机姿态生成模块,用于在所述荧光图像和白光图像的图像序列中选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并将所述图像序列中相邻的图像作为匹配图像,得到所述匹配图像的相对相机姿态;代价函数建立模块,用于根据所述荧光图像和白光图像的图像序列中的匹配图像的相对相机姿态将对应的图像像素标记点投影到基准图像平面,根据稠密跟踪原理建立稠密跟踪的代价函数;深度图生成模块,用于将所述代价函数采用 Huber范数正则化方法建立最优化能量函数,并采用交替迭代方法求解所述最优化能量函数,得到所述基准图像的深度图;循环计算模块,用于将所述荧光图像和白光图像的图像序列中的基准图像的下一幅图像作为基准图像,利用所述相对相机姿态生成模块、代价函数建立模块和深度图生成模块,计算得到所有荧光图像和白光图像的深度图;深度信息生成模块,用于将所有荧光图像和白光图像的深度图序列采用对应的纹理特征进行加权平滑,矫正深度估计结果,获得最终的观测物体三维深度信息。
本发明实施例的手术导航定位方法及装置,采用分子影像手术导航系统采集的多光谱、多角度荧光图像和白光图像实时估计图像深度,从而建立病灶区域的三维立体模型,有助于医生在术中对病灶区域的定位,极大提高术中诊断和治疗过程的精确度。
参照后文的说明和附图,详细公开了本发明的特定实施方式,指明了本发明的原理可以被采用的方式。应该理解,本发明的实施方式在范围上并不因而受到限制。在所附权利要求的精神和条款的范围内,本发明的实施方式包括许多改变、修改和等同。
针对一种实施方式描述和/或示出的特征可以以相同或类似的方式在一个或更多个其它实施方式中使用,与其它实施方式中的特征相组合,或替代其它实施方式中的特征。
应该强调,术语“包括/包含”在本文使用时指特征、整件、步骤或组件的存在,但并不排除一个或更多个其它特征、整件、步骤或组件的存在或附加。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的手术导航定位方法的处理流程图;
图2为本发明实施例的手术导航定位装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本领域技术技术人员知道,本发明的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
下面参考本发明的若干代表性实施方式,详细阐释本发明的原理和精神。
单目图像深度计算的基本原理是利用病灶区域空间上的物点在不同相机姿态下采集成像得到的相机视差来计算物体深度。基于这一原理,本发明在采集多光谱、多角度的荧光图像和白光图像序列之后,通过计算各图像同基准图像的相对相机姿态得到视差信息,从而计算该基准图像的像素深度信息。在多光谱荧光图像和白光图像的深度信息均计算完成之后,利用多光谱深度信息进行加权平滑,矫正不同图像序列计算深度的误差,从而得到准确的图像深度信息,完成手术导航的术中立体定位。
图1为本发明实施例的手术导航定位方法的处理流程图。如图所示,包括以下步骤:
步骤S1:获取多光谱、不同角度、不同位置的荧光图像和白光图像;
步骤S2:提取所述荧光图像和白光图像的纹理特征,作为稠密跟踪方法的像素标记点;
步骤S3:在所述荧光图像和白光图像的图像序列中选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并将所述图像序列中相邻的图像作为匹配图像,得到所述匹配图像的相对相机姿态;
步骤S4:根据所述荧光图像和白光图像的图像序列中的匹配图像的相对相机姿态将对应的图像像素标记点投影到基准图像平面,根据稠密跟踪原理建立稠密跟踪的代价函数;
步骤S5:将所述代价函数采用Huber范数正则化方法建立最优化能量函数,并采用交替迭代方法求解所述最优化能量函数,得到所述基准图像的深度图;
步骤S6:将所述步骤S3中的所述荧光图像和白光图像的图像序列中的基准图像的下一幅图像作为基准图像,重复步骤S3~S5,计算得到所有荧光图像和白光图像的深度图;
步骤S7:将所述步骤S6得到的深度图序列采用对应的纹理特征进行加权平滑,矫正深度估计结果,获得最终的观测物体三维深度信息。
在本实施例的步骤S1中,可以通过控制手术导航的荧光光源和白光光源对探测区域进行照射,并控制、调整手术导航图像采集装置,以获得探测区域的清晰的多光谱、不同角度、不同位置的荧光图像和白光图像。
在本实施例的步骤S2中,采用局部二值模式(LBP,Local binary patterns)方法提取荧光图像和白光图像的纹理特征,将所述纹理特征作为稠密跟踪方法的像素标记点。其步骤如下:首先将目标图像划分为16×16的小区域(cell),对于每个cell中的一个像素,将其环形邻域内的8个点(进行顺时针比较,如果中心像素值比该邻点大,则将邻点赋值为1,否则赋值为0。这样每个点都会获得一个8位二进制数。然后计算每个cell的直方图,即每个数字出现的频率(也就是一个关于每一个像素点是否比邻域内点大的一个二进制序列进行统计),然后对该直方图进行归一化处理。最后将得到的每个cell的统计直方图进行连接,就得到了整幅图的LBP纹理特征。
在本实施例的步骤S3中,在荧光图像和白光图像序列中选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并以图像序列中相邻的图像作为匹配图像,估计相邻图像的相对相机姿态。本发明的相机的采集参数包括相机初始时刻的世界坐标、相机姿态、有效焦距和图像分辨率等参数。在获得这些参数之后,基准图像的采集参数被初始化,匹配图像的采集参数通过PnP(Perspective-n-Point)方法求解,根据基准图像和匹配图像的纹理特征分别获取对应的彼此间距离较远的4个标记点作为配准点。接下来采用已有的RPP (Robust Planar Pose)算法计算4个对应标记点间的位置关系,从而得到匹配图像相对于基准图像的相对相机姿态。
在本实施例的步骤S4中,根据所述荧光图像和白光图像序列中匹配图像的相对相机姿态将对应的图像像素标记点投影到基准图像平面,根据稠密跟踪原理建立稠密跟踪的代价函数。所述代价函数的方程如下所示:
ρr(Im,u,d)=Ir(u)-Im(π(Tmr,u,d)) (2)
其中,下标r代表基准图像,下标m代表匹配图像,I为白光图像,u为纹理特征中的某一像素,d为对应像素u的深度,τ(r)为图像序列集合,Cr(u,d)为对应像素u的代价函数,ρr为匹配图像同基准图像的像差,π(Tmr,u,d)为匹配图像中对应于像素u的像素,Tmr为匹配图像同基准图像的相对相机姿态矩阵。
在本实施例的步骤S5中:将得到的代价函数采用Huber范数正则化方法建立最优化能量函数。接着采用交替迭代方法计算该能量函数,得到基准图像的深度图。
Huber范数的定义如下:
令ξ为基准图像对应的深度图,对其进行Huber范数正则化之后,整合得到的最优化能量函数如下所示:
其中ξ(u)为对应像素u的深度,即式2中的d;g(u)为像素加权系数,表征该像素同相邻像素的差异;a(u)为深度估计过程中的中间变量,算法收敛到最终步骤后 a(u)=0;λ为代价函数的权重系数;θ为迭代过程的步长因子。
求解该能量函数得到深度,需要对Huber范数进行最优化。这里采用 Legendre-Fenchel transform,将式(4)中的进行向量表示,待求解方程如下所示:
其中Ad为对应深度图的梯度向量,G=diag(g)为深度图像素的像素加权矩阵,q为Huber范数最优化的目标向量,δ(q)为q的指示函数,当||q||1≤1时δ(q)=0,否则为∞。
基于上述的最优化方程,建立交替迭代的求解过程,迭代步骤如下所述:
1)、采用梯度下降法计算q和d,计算公式如下:
其中Πq(x)=x/max(1,||x||2),σ为q和d迭代的步长因子;
2)、根据计算得到的dn+1在一定的范围内采用逐点搜索的办法得到an+1
3)、当θn>θend时,θn+1=θn(1-βn),然后返回到1)继续迭代;当不满足时算法停止。
在得到d之后,即可得到最终的深度图ξ。
在本实施例的步骤S6中,将步骤S3所述荧光图像和白光图像序列中基准图像的下一幅图像作为基准图像,重复步骤S3~S5,计算得到该基准图像的深度图,然后接着计算下一幅图像的深度图,重复步骤S3~S5,从而计算得到所有荧光图像和白光图像的深度图。
在本实施例的步骤S7中,将步骤S6得到的深度图序列采用对应的纹理特征进行加权平滑,矫正深度估计结果,获得最终的观测物体三维深度信息,具体可以通过如下实现:
设f为待平滑的深度图,fp为用以加权平滑的基准图像的纹理特征,fr为平滑后的深度图,u为f及fp中对应的像素点。则平滑后的深度图表示如下:
fr(u)=(1-w)f(u)+wfp(u) (7)
其中w为加权因子,按照加权平滑图同深度图之间梯度变化来设置,通常设置为0.5。
本发明上述实施例的手术导航定位方法,采用分子影像手术导航系统采集的多光谱、多角度荧光图像和白光图像实时估计图像深度,从而建立病灶区域的三维立体模型,有助于医生在术中对病灶区域的定位,极大提高术中诊断和治疗过程的精确度。
应当注意,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
在介绍了本发明示例性实施方式的方法之后,接下来,参考图2对本发明示例性实施方式的手术导航定位装置进行介绍。该装置的实施可以参见上述方法的实施,重复之处不再赘述。以下所使用的术语“模块”和“单元”,可以是实现预定功能的软件和/或硬件。尽管以下实施例所描述的模块较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图2为本发明实施例的手术导航定位装置的结构示意图。如图所示,包括:
图像获取模块201,用于获取多光谱、不同角度、不同位置的荧光图像和白光图像;
纹理特征提取模块202,用于提取所述荧光图像和白光图像的纹理特征,作为稠密跟踪方法的像素标记点;
相对相机姿态生成模块203,用于在所述荧光图像和白光图像的图像序列中选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并将所述图像序列中相邻的图像作为匹配图像,得到所述匹配图像的相对相机姿态;
代价函数建立模块204,用于根据所述荧光图像和白光图像的图像序列中的匹配图像的相对相机姿态将对应的图像像素标记点投影到基准图像平面,根据稠密跟踪原理建立稠密跟踪的代价函数;
深度图生成模块205,用于将所述代价函数采用Huber范数正则化方法建立最优化能量函数,并采用交替迭代方法求解所述最优化能量函数,得到所述基准图像的深度图;
循环计算模块206,用于将所述荧光图像和白光图像的图像序列中的基准图像的下一幅图像作为基准图像,利用所述相对相机姿态生成模块、代价函数建立模块和深度图生成模块,计算得到所有荧光图像和白光图像的深度图;
深度信息生成模块207,用于将所有荧光图像和白光图像的深度图序列采用对应的纹理特征进行加权平滑,矫正深度估计结果,获得最终的观测物体三维深度信息。
在本实施例中,所述图像获取模201块通过手术导航系统中的荧光采集相机和白光采集相机分别获取多光谱、不同角度、不同位置的荧光图像和白光图像。
在本实施例中,所述纹理特征提取模块202采用局部二值模式方法提取荧光图像和白光图像的纹理特征,将所述纹理特征作为稠密跟踪方法的像素标记点。
在本实施例中,所述相对相机姿态生成模块203在所述荧光图像和白光图像的图像序列中选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并将所述图像序列中相邻的图像作为匹配图像,估计所述匹配图像的相对相机姿态,其具体包括:
采用PNP方法求解所述匹配图像的采集参数,根据所述基准图像和所述匹配图像的纹理特征分别获取对应的彼此间距离较远的4个标记点作为配准点,采用RPP 算法计算所述4个标记点之间的位置关系,得到所述匹配图像相对于所述基准图像的相对相机姿态。
在本实施例中,所述代价函数建立模块204根据所述荧光图像和白光图像的图像序列中的匹配图像的相对相机姿态将对应的图像像素标记点投影到基准图像平面,根据稠密跟踪原理建立稠密跟踪的代价函数,具体包括:
所述代价函数的方程如下所示:
ρr(Im,u,d)=Ir(u)-Im(π(Tmr,u,d)) (2)
其中下标r代表基准图像,下标m代表匹配图像,I为白光图像,u为纹理特征中的某一像素,d为对应像素u的深度,τ(r)为图像序列集合,Cr(u,d)为对应像素 u的代价函数,ρr为匹配图像同基准图像的像差,π(Tmr,u,d)为匹配图像中对应于像素u的像素,Tmr为匹配图像同基准图像的相对相机姿态矩阵。
在本实施例中,所述深度图生成模块205将所述代价函数采用Huber范数正则化方法建立最优化能量函数,并采用交替迭代方法求解所述最优化能量函数,得到所述基准图像的深度图,其具体包括:
Huber范数的定义如下:
令ξ为基准图像对应的深度图,对其进行Huber范数正则化之后,整合得到的最优化能量函数如下所示:
其中ξ(u)为对应像素u的深度,即式(2)中的d;g(u)为像素加权系数,表征该像素同相邻像素的差异;a(u)为深度估计过程中的中间变量,算法收敛到最终步骤后a(u)=0;λ为代价函数的权重系数;θ为迭代过程的步长因子。
求解所述能量函数(4)得到深度,需要对Huber范数进行最优化,采用 Legendre-Fenchel transform,将式(4)中的进行向量表示,待求解方程如下所示:
其中Ad为对应深度图的梯度向量,G=diag(g)为深度图像素的像素加权矩阵,q为Huber范数最优化的目标向量,δ(q)为q的指示函数,当||q||1≤1时δ(q)=0,否则为∞。
基于上述的最优化方程,建立交替迭代的求解过程,迭代步骤如下所述:
1)采用梯度下降法计算q和d,计算公式如下:
其中Πq(x)=x/max(1,||x||2),σ为q和d迭代的步长因子;
2)根据计算得到的dn+1在一定的范围内采用逐点搜索的办法得到an+1
3)当θn>θend时,θn+1=θn(1-βn),然后返回到1)继续迭代;当不满足时算法
停止。
在得到d之后,即可得到最终的深度图ξ。
在本实施例中,所述深度信息生成模块207用于将所有荧光图像和白光图像的深度图序列采用对应的纹理特征进行加权平滑,矫正深度估计结果,获得最终的观测物体三维深度信息,其具体包括:
设f为待平滑的深度图,fp为用以加权平滑的基准图像的纹理特征,fr为平滑后的深度图,u为f及fp中对应的像素点,则平滑后的深度图表示如下:
fr(u)=(1-w)f(u)+wfp(u) (7)
其中w为加权因子。
本发明实施例的手术导航定位方法及装置,采用分子影像手术导航系统采集的多光谱、多角度荧光图像和白光图像实时估计图像深度,从而建立病灶区域的三维立体模型,有助于医生在术中对病灶区域的定位,极大提高术中诊断和治疗过程的精确度。
此外,尽管在上文详细描述中提及了手术导航定位装置的若干单元,但是这种划分仅仅并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。同样,上文描述的一个单元的特征和功能也可以进一步划分为由多个单元来具体化。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等) 上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (7)

1.一种手术导航定位装置,其特征在于,包括:
图像获取模块,用于获取多光谱、不同角度、不同位置的荧光图像和白光图像;
纹理特征提取模块,用于提取所述荧光图像和白光图像的纹理特征,作为稠密跟踪方法的像素标记点;
相对相机姿态生成模块,用于在所述荧光图像和白光图像的图像序列中选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并将所述图像序列中相邻的图像作为匹配图像,得到所述匹配图像的相对相机姿态;
代价函数建立模块,用于根据所述荧光图像和白光图像的图像序列中的匹配图像的相对相机姿态将对应的图像像素标记点投影到基准图像平面,根据稠密跟踪原理建立稠密跟踪的代价函数;
深度图生成模块,用于将所述代价函数采用Huber范数正则化方法建立最优化能量函数,并采用交替迭代方法求解所述最优化能量函数,得到所述基准图像的深度图;
循环计算模块,用于将所述荧光图像和白光图像的图像序列中的基准图像的下一幅图像作为基准图像,利用所述相对相机姿态生成模块、代价函数建立模块和深度图生成模块,计算得到所有荧光图像和白光图像的深度图;
深度信息生成模块,用于将所有荧光图像和白光图像的深度图序列采用对应的纹理特征进行加权平滑,矫正深度估计结果,获得最终的观测物体三维深度信息。
2.根据权利要求1所述的手术导航定位装置,其特征在于,所述图像获取模块通过手术导航系统中的荧光采集相机和白光采集相机分别获取多光谱、不同角度、不同位置的荧光图像和白光图像。
3.根据权利要求1所述的手术导航定位装置,其特征在于,所述纹理特征提取模块采用局部二值模式方法提取荧光图像和白光图像的纹理特征,将所述纹理特征作为稠密跟踪方法的像素标记点。
4.根据权利要求1所述的手术导航定位装置,其特征在于,所述相对相机姿态生成模块在所述荧光图像和白光图像的图像序列中选取初始时刻的图像作为基准图像,按照预先标定的手术导航系统相机的采集参数建立世界坐标系和参考相机姿态,并将所述图像序列中相邻的图像作为匹配图像,估计所述匹配图像的相对相机姿态,其具体包括:
采用PNP方法求解所述匹配图像的采集参数,根据所述基准图像和所述匹配图像的纹理特征分别获取对应的彼此间距离较远的4个标记点作为配准点,采用RPP算法计算所述4个标记点之间的位置关系,得到所述匹配图像相对于所述基准图像的相对相机姿态。
5.根据权利要求1所述的手术导航定位装置,其特征在于,所述代价函数建立模块根据所述荧光图像和白光图像的图像序列中的匹配图像的相对相机姿态将对应的图像像素标记点投影到基准图像平面,根据稠密跟踪原理建立稠密跟踪的代价函数,具体包括:
所述代价函数的方程如下所示:
ρr(Im,u,d)=Ir(u)-Im(π(Tmr,u,d));
其中下标r代表基准图像,下标m代表匹配图像,I为白光图像,u为纹理特征中的某一像素,d为对应像素u的深度,τ(r)为图像序列集合,Cr(u,d)为对应像素u的代价函数,ρr为匹配图像同基准图像的像差,π(Tmr,u,d)为匹配图像中对应于像素u的像素,Tmr为匹配图像同基准图像的相对相机姿态矩阵。
6.根据权利要求1所述的手术导航定位装置,其特征在于,所述深度图生成模块将所述代价函数采用Huber范数正则化方法建立最优化能量函数,并采用交替迭代方法求解所述最优化能量函数,得到所述基准图像的深度图,其具体包括:
Huber范数的定义如下:
令ξ为基准图像对应的深度图,对其进行Huber范数正则化之后,整合得到的最优化能量函数如下所示:
其中ξ(u)为对应像素u的深度,即式(2)中的d;g(u)为像素加权系数,表征该像素同相邻像素的差异;a(u)为深度估计过程中的中间变量,算法收敛到最终步骤后a(u)=0;λ为代价函数的权重系数;θ为迭代过程的步长因子;
求解所述能量函数得到深度,需要对Huber范数进行最优化,采用Legendre-Fencheltransform,将所述能量函数中的进行向量表示,待求解方程如下所示:
其中Ad为对应深度图的梯度向量,G=diag(g)为深度图像素的像素加权矩阵,q为Huber范数最优化的目标向量,δ(q)为q的指示函数,当||q||1≤1时δ(q)=0,否则为∞;
基于上述的最优化方程,建立交替迭代的求解过程,迭代步骤如下所述:
1)采用梯度下降法计算q和d,计算公式如下:
其中∏q(x)=x/max(1,||x||2),σ为q和d迭代的步长因子;
2)根据计算得到的dn+1在一定的范围内采用逐点搜索的办法得到an+1
3)当θnend时,θn+1=θn(1-βn),然后返回到1)继续迭代;当不满足时算法停止;
在得到d之后,即可得到最终的深度图ξ。
7.根据权利要求1所述的手术导航定位装置,其特征在于,所述深度信息生成模块用于将所有荧光图像和白光图像的深度图序列采用对应的纹理特征进行加权平滑,矫正深度估计结果,获得最终的观测物体三维深度信息,其具体包括:
设f为待平滑的深度图,fp为用以加权平滑的基准图像的纹理特征,fr为平滑后的深度图,u为f及fp中对应的像素点,则平滑后的深度图表示如下:
fr(u)=(1-w)f(u)+wfp(u);
其中w为加权因子。
CN201710866551.XA 2017-09-22 2017-09-22 一种手术导航定位方法及装置 Active CN107714175B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710866551.XA CN107714175B (zh) 2017-09-22 2017-09-22 一种手术导航定位方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710866551.XA CN107714175B (zh) 2017-09-22 2017-09-22 一种手术导航定位方法及装置

Publications (2)

Publication Number Publication Date
CN107714175A CN107714175A (zh) 2018-02-23
CN107714175B true CN107714175B (zh) 2019-12-27

Family

ID=61206764

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710866551.XA Active CN107714175B (zh) 2017-09-22 2017-09-22 一种手术导航定位方法及装置

Country Status (1)

Country Link
CN (1) CN107714175B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102151122A (zh) * 2011-03-17 2011-08-17 中国科学院自动化研究所 激发荧光分子成像系统及一次荧光成像方法
CN102319116A (zh) * 2011-05-26 2012-01-18 上海交通大学 利用手术器械机械结构提升器械三维定位精度的方法
CN105662354A (zh) * 2016-03-31 2016-06-15 中国科学院自动化研究所 一种广视角光学分子断层成像导航系统及方法
CN106447703A (zh) * 2016-08-31 2017-02-22 北京数字精准医疗科技有限公司 近红外荧光与契伦科夫荧光融合成像方法及设备
WO2017057039A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、手術システム、及び、手術糸

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102151122A (zh) * 2011-03-17 2011-08-17 中国科学院自动化研究所 激发荧光分子成像系统及一次荧光成像方法
CN102319116A (zh) * 2011-05-26 2012-01-18 上海交通大学 利用手术器械机械结构提升器械三维定位精度的方法
WO2017057039A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、手術システム、及び、手術糸
CN105662354A (zh) * 2016-03-31 2016-06-15 中国科学院自动化研究所 一种广视角光学分子断层成像导航系统及方法
CN106447703A (zh) * 2016-08-31 2017-02-22 北京数字精准医疗科技有限公司 近红外荧光与契伦科夫荧光融合成像方法及设备

Also Published As

Publication number Publication date
CN107714175A (zh) 2018-02-23

Similar Documents

Publication Publication Date Title
KR102013866B1 (ko) 실제수술영상을 이용한 카메라 위치 산출 방법 및 장치
CN106340015B (zh) 一种关键点的定位方法和装置
Bergen et al. Stitching and surface reconstruction from endoscopic image sequences: a review of applications and methods
CN109124662B (zh) 肋骨中心线检测装置及方法
JP2003265408A (ja) 内視鏡誘導装置および方法
BRPI0919448B1 (pt) método para o rastreamento de uma unidade folicular e sistema para o rastreamento de uma unidade folicular.
US8712177B2 (en) Motion compensated overlay
US9977982B2 (en) Medical image processing method and image processing system
CN110381841A (zh) 用于医疗成像的夹具及其使用方法
WO2015021327A2 (en) Registration of fluoroscopic images of the chest and corresponding 3d image data based on the ribs and spine
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
CN114022547A (zh) 一种内窥镜图像检测方法、装置、设备及存储介质
JP6824078B2 (ja) 内視鏡位置特定装置、方法およびプログラム
WO2018215919A2 (en) Navigating an imaging instrument in a branched structure
Allain et al. Re-localisation of a biopsy site in endoscopic images and characterisation of its uncertainty
Stoyanov et al. Intra-operative visualizations: Perceptual fidelity and human factors
KR20160057024A (ko) 마커리스 3차원 객체추적 장치 및 그 방법
JP2011161104A (ja) 画像生成装置、画像生成方法、及びそのプログラム
CN107714175B (zh) 一种手术导航定位方法及装置
CN116612166A (zh) 一种多模态影像的配准融合算法
US20220249174A1 (en) Surgical navigation system, information processing device and information processing method
WO2020031071A1 (en) Internal organ localization of a subject for providing assistance during surgery
Baumhauer et al. Soft tissue navigation for laparoscopic prostatectomy: Evaluation of camera pose estimation for enhanced visualization
Zhang et al. SIFT algorithm-based 3D pose estimation of femur
CN109410244B (zh) 一种基于全局光流法的肺部肿瘤自动检测跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant