CN116052158A - 脊柱图像处理方法、装置、计算机设备、存储介质 - Google Patents

脊柱图像处理方法、装置、计算机设备、存储介质 Download PDF

Info

Publication number
CN116052158A
CN116052158A CN202310063683.4A CN202310063683A CN116052158A CN 116052158 A CN116052158 A CN 116052158A CN 202310063683 A CN202310063683 A CN 202310063683A CN 116052158 A CN116052158 A CN 116052158A
Authority
CN
China
Prior art keywords
image
spine image
dimensional
target
spine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310063683.4A
Other languages
English (en)
Inventor
请求不公布姓名
李涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Xiaowei Changxing Robot Co ltd
Original Assignee
Suzhou Xiaowei Changxing Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Xiaowei Changxing Robot Co ltd filed Critical Suzhou Xiaowei Changxing Robot Co ltd
Priority to CN202310063683.4A priority Critical patent/CN116052158A/zh
Publication of CN116052158A publication Critical patent/CN116052158A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及一种脊柱图像处理方法、装置、计算机设备、存储介质和计算机程序产品。所述方法包括:获取待处理脊柱图像;对所述待处理脊柱图像进行特征识别,得到各目标区域;基于各所述目标区域进行三维重建得到重建后的三维脊柱图像;接收针对所述三维脊柱图像的审核结果;当所述审核结果为不满足要求时,重新获取所述待处理脊柱图像,并继续对所述待处理图像进行特征识别以及三维重建,直至所述审核结果满足要求时,通过所述三维椎板图像对所述三维脊柱图像进行更新,得到目标三维脊柱图像。采用本方法能够自动对目标特征区域进行识别。

Description

脊柱图像处理方法、装置、计算机设备、存储介质
技术领域
本申请涉及图像处理技术领域,特别是涉及一种脊柱图像处理方法、装置、计算机设备、存储介质和计算机程序产品。
背景技术
近年来,需要进行外科手术的患者越来越多,对于医生的要求越来越高。例如,在脊柱手术需要医生手持骨钻剔除病灶椎板进行手术,对医生的心理素质、手术经验、专业技巧要求高。
由于在传统手术过程中,需要医生手动对病灶进行识别并清除,因此该方法存在效率低下的问题,特别是随着患者数量的增加,使得该问题变得更加突出。
发明内容
基于此,有必要针对上述技术问题,提供一种能够自动对目标特征区域进行识别的脊柱图像处理方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
第一方面,本申请提供了一种脊柱图像处理方法。所述方法包括:
获取待处理脊柱图像;
对所述待处理脊柱图像进行特征识别,得到各椎板目标区域;
基于各所述椎板目标区域进行三维重建,得到重建后的三维脊柱图像以及三维椎板图像;
接收针对所述三维脊柱图像的审核结果;
当所述审核结果为不满足要求时,重新获取所述待处理脊柱图像,并继续对所述待处理图像进行特征识别以及三维重建,直至所述审核结果满足要求时,通过所述三维椎板图像对所述三维脊柱图像进行更新,得到目标三维脊柱图像。
在其中一个实施例中,对所述待处理脊柱图像进行特征识别,得到各椎板目标区域,包括:
对所述待处理脊柱图像进行特征提取,得到不同尺度的第一椎板特征图;
对所述不同尺度的第一椎板特征图进行依次扩张,得到第一椎板输出特征图;
对所述输出特征图的像素点进行分类,得到各所述椎板目标区域。
在其中一个实施例中,对所述待处理脊柱图像进行特征识别,得到各椎板目标区域,还包括:
对所述待处理脊柱图像进行特征提取,得到第二椎板特征图;
对第二椎板特征图进行反向映射,得到第二椎板输出特征图;
对所述第二椎板输出特征图的像素点进行预测,得到各所述椎板目标区域。
在其中一个实施例中,对所述待处理脊柱图像进行特征识别,得到各椎板目标区域是通过预先训练的目标特征分割模型得到的;所述目标特征分割模型的训练过程,包括:
获取样本脊柱图像;所述样本脊柱图像携带标签数据;
将所述样本脊柱图像分别输入至至少一个初始特征识别模型中进行训练,得到各初始特征数据;
根据各所述初始特征数据与所述标签数据之间的偏差,对应调整所述初始特征识别模型的参数,得到至少一个训练完成的特征分割模型;
从至少一个训练完成的所述特征分割模型中确定目标特征分割模型。
在其中一个实施例中,所述获取样本脊柱图像之后,还包括:
对所述样本脊柱图像进行图像增强处理;所述图像增强处理包括:去噪处理、滤波处理、旋转处理、扭曲处理以及缩放处理中的至少一种。
第二方面,本申请提供了一种医疗器械控制方法。所述方法包括:
获取基于上述的脊柱图像处理方法所得到的目标三维脊柱图像;
基于所述目标三维脊柱图像接收脊椎减压路径信息;
根据所述脊椎减压路径信息对医疗器械进行控制。
在其中一个实施例中,根据所述脊椎减压路径信息对医疗器械进行控制之前,包括:
将所述目标三维脊柱图像以及操作空间进行配准,得到空间配准关系;
根据所述脊椎减压路径信息,对医疗器械进行控制,包括:
基于所述空间配准关系,根据所述脊椎减压路径信息对医疗器械进行控制。
在其中一个实施例中,所述操作空间包括目标对象以及机械臂;将所述目标三维脊柱图像以及操作空间进行配准,得到空间配准关系,包括:
根据光学标记点,将所述目标三维脊柱图像与所述目标对象进行配准,得到第一配准关系;
根据光学导航信息,将所述目标对象与所述机械臂进行配准,得到第二配准关系;
根据所述第一配准关系和所述第二配准关系得到空间配准关系。
在其中一个实施例中,根据光学标记点,将所述目标三维脊柱图像与操作空间进行配准,得到第一配准关系,包括:
获取光学标定点在所述目标三维脊柱图像的第一位置信息以及所述光学标定点在所述目标对象的第二位置信息;
根据所述第一位置信息以及所述第二位置信息进行配准,得到第一配准关系。
在其中一个实施例中,根据光学导航信息,将所述目标对象和所述机械臂进行配准,得到第二配准关系,包括:
分别获取光学导航定位设备与所述目标对象的第一转换关系以及所述光学导航定位设备与所述机械臂的第二转换关系;
根据所述第一转换关系以及所述第二转换关系,得到所述第二配准关系。
第三方面,本申请提供了一种机器人系统。所述系统包括:
所述图像采集设备用于采集待处理脊柱图像;
所述处理器处理执行上述的方法,得到的目标三维脊柱图像。
在其中一个实施例中,所述系统还包括导航设备;
所述导航系统用于获取光学导航信息;
所述处理器还用于根据所述光学导航信息,将目标三维脊柱图像以及操作空间进行配准,得到空间配准关系,并基于所述空间配准关系对医疗器械进行控制。
第四方面,本申请提供了一种脊柱图像处理装置,所述脊柱图像处理装置包括:
获取模块,用于获取待处理脊柱图像;
识别模块,用于对所述待处理脊柱图像进行特征识别,得到各椎板目标区域;
重建模块,用于基于各所述椎板目标区域进行三维重建得到重建后的三维脊柱图像;
接收模块,接收针对所述三维脊柱图像的审核结果;
审核模块,用于当所述审核结果为不满足要求时,重新获取所述待处理脊柱图像,并继续对所述待处理图像进行特征识别以及三维重建,直至所述审核结果满足要求时,得到目标三维脊柱图像。
第五方面,本申请提供了一种脊柱图像处理装置,所述医疗器械控制装置包括:
图像接收模块,用于获取基于上述的脊柱图像处理装置所得到的目标三维脊柱图像;
信息获取模块,用于基于所述目标三维脊柱图像接收脊椎减压路径信息;
控制模块,用于根据所述脊椎减压路径信息,在配准空间中对医疗器械进行控制。
第六方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任意一个实施例中的方法的步骤。
第七方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一个实施例中的方法的步骤。
第八方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述任意一个实施例中的方法的步骤。
上述脊柱图像处理方法、装置、计算机设备、存储介质和计算机程序产品,处理单元首先获取待处理脊柱图像,再对待处理脊柱图像进行特征识别,得到各椎板目标区域,并基于各椎板目标区域进行三维重建得到重建后的三维脊柱图像。然后,接收针对三维脊柱图像的审核结果,当审核结果为不满足要求时,重新获取待处理脊柱图像,并继续对待处理图像进行特征识别以及三维重建,直至审核结果满足要求时,得到目标三维脊柱图像。这样,处理单元可以自动对椎板目标区域进行识别,这样可以提高手术精度以及降低手术风险;其次,由于椎板目标区域是自动识别的,可以提高手术的精准程度,缩短手术时间,降低了手术风险和对患者可能的损伤。
附图说明
图1为一个实施例中脊柱图像处理方法的流程示意图;
图2为一个实施例中椎板减压手术过程中的病灶特征识别示意图;
图3为一个实施例中的特征识别示意图;
图4为另一个实施例中的特征识别示意图;
图5为一个实施例中的模型训练过程示意图;
图6为一个实施例中应用于脊柱图像的图像增强流程示意图;
图7为一个实施例中的脊柱图像处理方法的流程示意图;
图8为一个实施例中的脊柱特征区域的三维图像重建步骤示意图;
图9为一个实施例中的空间关系配准示意图;
图10为一个实施例中的医疗器械控制场景示意图;
图11为一个实施例中的医疗器械控制步骤示意图;
图12为一个实施例中的机器人系统示意图;
图13为一个实施例中脊柱图像处理装置的结构框图;
图14为一个实施例中的医疗器械控制装置的结构框图;
图15为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的脊柱图像处理方法,可以应用于终端102通过网络与处理单元104进行通信的应用场景,数据存储系统可以存储处理单元104需要处理的数据。数据存储系统可以集成在处理单元104上,也可以放在云上或其他网络处理单元上。终端102上可以包括交互显示终端,用于三维脊柱图像的显示。具体地,处理单元获取待处理脊柱图像,对待处理脊柱图像进行特征识别,得到各椎板目标区域,并基于各椎板目标区域进行三维重建得到重建后的三维脊柱图像。然后,接收针对三维脊柱图像的审核结果;当审核结果为不满足要求时,重新获取待处理脊柱图像,并继续对待处理图像进行特征识别以及三维重建,直至审核结果满足要求时,得到目标三维脊柱图像。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能显示设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。处理单元104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图1所示,提供了一种脊柱图像处理方法,以该方法应用于处理单元104为例进行说明,包括以下步骤:
S102,获取待处理脊柱图像。
其中,待处理脊柱图像是指需要进行图像处理的脊柱图像,例如CBCT(Cone beamCT,锥形束CT)。该待处理脊柱图像中包括待提取的椎板目标区域,例如特征所在的组织或器官。
示例性的,如果需要对脊椎进行识别,则待处理脊柱图像可以是脊柱影像图。在其他区实施例中,待处理脊柱图像中可以是包括目标对象任意一个部位或组织的图像,如股骨、胫骨等。其中,目标对象可以是指医疗诊断场景或者是医疗治疗场景中的患者。
可选地,处理单元可以通过移动硬盘、U盘、存储卡、光盘等获取待处理脊柱图像。也可以通过局域网获取待处理脊柱图像。
在其中一个实施例中,处理单元基于待处理脊柱图像,进行图像增强处理;图像增强处理包括:去噪处理、滤波处理、旋转处理、扭曲处理以及缩放处理中的至少一种。
S104,对待处理脊柱图像进行特征识别,得到各椎板目标区域。
可选地,处理单元可以将待处理脊柱图像输入至目标特征分割模型,目标特征分割模型对待处理脊柱图像进行特征识别,得到各椎板目标区域。其中,目标特征分割模型是指预先训练的,能够对待处理脊柱图像进行特征识别的机器学习模型。
示例性的,结合图2所示,图2为一个实施例中椎板减压手术过程中的病灶特征识别示意图,图中202为目标对象,即患者,然后通过图像采集设备对目标对象202的病灶部位进行图像采集得到待处理图像204,图像采集设备将待处理图像204发送至处理单元,处理单元对待处理图像204进行特征识别,得到各椎板椎板目标区域。其中,病灶区域位于脊柱局部,具体构造为椎弓根2061、脊突2062、椎板2063、椎骨2064,其中椎板2063中包含骨皮质2065、过渡区2066、骨松质2067。由于,骨皮质、过渡区和骨松质是椎板减压手术中的关键,因此处理单元对骨皮质、过渡区和骨松质的识别是能够椎板减压手术精度和降低手术风险。
S106,基于各椎板目标区域进行三维重建,得到重建后的三维脊柱图像。
其中,三维脊柱图像是指三维重建后的三维脊柱图像,处理单元可以使用三维重建方法对各椎板目标区域进行三维重建。可选地,三维重建的方法包括但不限于MarchingCube算法、在轮廓附近根据表面阈值使用Marching Cube算法进行插值重建以及泊松表面重建算法等。
示例性的,继续结合椎板减压手术为例,处理单元在对脊柱椎板结构中的骨皮质、过渡区、骨松质的提取后,进行病灶区椎板结构和脊柱局部结构的三维图像重建,优化脊柱椎板结构三维脊柱图像。
S108,接收针对三维椎板图像的审核结果。
其中,审核结果是指对三维脊柱图像的评估结果。
具体地,处理单元重建三维椎板图像之后,将三维椎板图像进行显示。由医生对三维椎板图像进行评估,如果对三维椎板图像评估通过,处理单元就会收到三维椎板图像审核通过的指令。反之,则接收到审核不通过的指令。
S110,当审核结果为不满足要求时,重新获取待处理脊柱图像,并继续对待处理图像进行特征识别以及三维重建,直至审核结果满足要求时,通过所述三维椎板图像对所述三维脊柱图像进行更新,得到目标三维脊柱图像。
具体地,当处理单元接收到的审核结果为不满足要求时,即医生对三维脊柱图像的审核结果不通过时,处理单元会重新获取待处理脊柱图像,并继续对待处理图像进行特征识别以及三维重建,直至处理单元收到的审核结果为满足要求时,将满足要求的三维椎板图像脊柱图像进行更新以及优化,得到目标三维脊柱图像。其中,目标三维脊柱图像是指满足审核要求的三维脊柱图像。
上述脊柱图像处理方法中,处理单元首先获取待处理脊柱图像,再对待处理脊柱图像进行特征识别,得到各椎板目标区域,并基于各椎板目标区域进行三维重建得到重建后的三维脊柱图像。然后,接收针对三维脊柱图像的审核结果,当审核结果为不满足要求时,重新获取待处理脊柱图像,并继续对待处理图像进行特征识别以及三维重建,直至审核结果满足要求时,得到目标三维脊柱图像。这样,处理单元可以自动对椎板目标区域进行识别,这样可以提高手术精度以及降低手术风险;其次,由于椎板目标区域是自动识别的,可以提高手术的精准程度,缩短手术时间,降低了手术风险和对患者可能的损伤。
在其中一个实施例中,对待处理脊柱图像进行特征识别,得到各椎板目标区域,包括:对待处理脊柱图像进行特征提取,得到不同尺度的第一椎板特征图;对不同尺度的第一椎板特征图进行依次扩张,得到第一椎板输出特征图;对输出特征图的像素点进行分类,得到各椎板目标区域。
其中,第一椎板特征图是指对待处理脊柱图像进行特征提取得到的特征图;第一椎板输出特征图是指对第一椎板特征图进行特征扩张之后输出的特征图。
示例性的,处理单元可以通过卷积或池化中的至少一种对待处理脊柱图像进行不同尺度的特征提取,此时第一椎板特征图的分辨率也被依次缩小了2、4、8、16、32倍。然后对第一椎板特征图进行特征扩张,例如通过上采样将第一椎板特征图依次扩大2、4、8、16、32倍,得到第一椎板输出特征图。最后,对第一椎板输出特征图中的每个像素点进行概率并分类,得到各椎板目标区域,具体可结合图3所示,图3为一个实施例中的特征识别示意图。
示例性的,对待处理脊柱图像进行特征提取过程中,假设网络f的输入图像为I,则经过网络f后的输出特征向量表示为:
Figure BDA0004073647340000061
其中wt为第l层的权值,bl为第l层的偏置,hl为第l层的输出特征,rule为线性激活函数。
示例性的,处理单元可以通过DSC(Dice系数)和MAE(平均绝对误差)来评价分割结果,其表达式分别为:
Figure BDA0004073647340000062
Figure BDA0004073647340000063
其中,Xpre和Xtru分别为网络分割结果和人工分割的真实结果。
在上述实施例中,处理单元对待处理脊柱图像首先进行特征提取,再进行特征扩张,最后进行像素点进行概率预测并分类,可以准确得到各椎板目标区域。
在其中一个实施例中,对待处理脊柱图像进行特征识别,得到各椎板目标区域,还包括:对待处理脊柱图像进行特征提取,得到第二椎板特征图;对第二椎板特征图进行反向映射,得到第二椎板输出特征图;对第二椎板输出特征图的像素点进行预测,得到各椎板目标区域。
其中,第二椎板特征图是指对待处理脊柱图像进行特征提取后的特征图,特征图中包括了有效的特征供后续使用,继续以椎板减压手术为例,假设需要提取的脊柱特征为“骨松质”,那么处理单元在进行特征提取时会将代表“骨松质”的像素点进行保留,并将其他像素点进清除。需要说明的一点是,处理单元是通过不同的目标特征分割模型得到的第一椎板特征图和第二椎板特征图。
示例性的,结合图4所示,处理单元对待处理脊柱图像进行解码,即进行一系列的卷积、池化及非线性映射等操作,得到包含目标类别、结构等信息的各个层次的第二椎板特征图的同时也伴随着特征图维度的不断降低,然后对第二椎板特征图进反卷积、反池化等操作对第二椎板特征图进行反向映射,得到第二特征输出图,最后通过一个softmax分类器进行分类,得到各椎板目标区域。
示例性的,对待处理脊柱图像进行特征提取过程中,假设网络f的输入图像为I,则经过网络f后的输出特征向量表示为:
Figure BDA0004073647340000071
其中wt为第l层的权值,bl为第l层的偏置,hl为第l层的输出特征,rule为线性激活函数。
示例性的,处理单元可以通过DSC(Dice系数)和MAE(平均绝对误差)来评价分割结果,其表达式分别为:
Figure BDA0004073647340000072
Figure BDA0004073647340000073
Xpre和Xtru分别为网络分割结果和人工分割的真实结果。
示例性的,待处理图像为患者的脊椎图像,需要提取的目标特征区域为“骨松质”、“骨皮质”和“过渡区”。处理单元将患者的脊椎图像输入至目标特征分割模型,该目标特征分割模型是基于FCN进行训练得到的,目标特征分割模型通过卷积、池化操作提取对患者的脊椎图像进行特征提取,得到被依次缩小了2、4、8、16、32倍的第一椎板特征图,然后通过上采样将特征图依次扩大2、4、8、16、32倍,得到第一椎板输出特征图。最后对输出特征图的像素点进行分类,得到需要被提取的脊柱目标特征区域,例如患者的脊椎图像中“骨松质”、“骨皮质”和“过渡区”。在本实施例中,第一椎板特征图是由训练完成后的FCN对患者的脊椎图像进行特征提取后的特征图。在其他实施例中,脊柱目标特征区域可以是“骨松质”、“骨皮质”和“过渡区”中的至少一个。
在其他实施例中,目标特征分割模型可以是基于卷积-反卷积神经网络训练得到的,目标特征分割模型通过全卷积网络提取特征对患者的脊椎图像进行特征提取,得到第二椎板特征图,然后反卷积网络将特征循序渐进地映射到原图大小,得到第二椎板输出特征图。最后,对第二椎板输出特征图的像素点进行预测,即对输出特征图中每一个像素点是否为需要被提取的脊柱目标特征区域进行预测,得到各个像素点的预测值,然后再基于预测值得到脊柱目标特征区域。示例性的,如当前像素点对应“骨松质”的概率值为75%,为“骨皮质”的概率值为40%,则处理单元将当前像素点判断为“骨松质”。在本实施例中,第二椎板特征图是由训练完成后的卷积-反卷积神经对患者的脊椎图像进行特征提取后的特征图,其与第一椎板特征图的提取方式不用,因此两者的表现形式可能并不相同,但两者都表征的是待处理图像进行特征压缩后的特征图。
在上述实施例中,处理单元对待处理脊柱图像首先进行特征提取,再进行反向映射,最后进行像素点进行概率预测并分类,可以准确得到各椎板目标区域。
在其中一个实施例中,对待处理脊柱图像进行特征识别,得到各椎板目标区域是通过预先训练的目标特征分割模型得到的;目标特征分割模型的训练过程,包括:获取样本脊柱图像;样本脊柱图像携带标签数据;将样本脊柱图像分别输入至至少一个初始特征识别模型中进行训练,得到各初始特征数据;根据各初始特征数据与标签数据之间的偏差,对应调整初始特征识别模型的参数,得到至少一个训练完成的特征分割模型;从至少一个训练完成的特征分割模型中确定目标特征分割模型。
其中,初始特征识别模型是指可以获取待处理脊柱图像中特定特征的机器学习模型,例如FCN(Fully Convolutional Networks,全卷积网络),卷积-反卷积神经网络。
其中,样本脊柱图像是指用于进行特征训练的图像;标签数据是指样本脊柱图像中已经标注的目标特征区域;初始特征数据是指初始特征识别模型在训练过程中预测的特征区域;目标特征分割模型是指用于对待处理脊柱图像进行特征提取的模型。
示例性的,对脊椎样本脊柱图像进行标注的过程可以是,选取原始图像数据库合适的样本进行语义标签标注处理,得到标签数据。在本实施例中,标签数据可以是“骨松质”、“骨皮质”和“过渡区”中的至少一种。
具体地,处理单元获取样本脊柱图像,该样本脊柱图像中携带标签数据,将样本脊柱图像分别输入至至少一个初始特征识别模型中进行训练,得到各个初始识别模型对应的初始特征数据,然后计算初始特征数据与标签数据之间的偏差,根据偏差对应的调整各个初始特征识别模型的参数,例如采用梯度下降的方式调整各个初始特征识别模型的参数,直至训练完成得到至少一个训练完成的特征分割模型,然后从至少一个训练完成的特征分割模型中确定目标特征分割模型。
示例性的,结合图5所示,图5为一个实施例中的模型训练过程示意图,处理单元首先获取样本脊柱图像,也就是脊柱图像。将脊柱图像划分为训练集(80%)和测试集(20%),其中训练集带语义标签,测试集不带语义标签。将增强处理后的脊柱图像样本作为神经网络的输入,选择要用的神经网络模型,如全卷积神经网络模型、卷积-反卷积神经网络模型;其次,设置网络参数,如卷积池化的层数与尺寸、Epoch、Batch、Batch_size、Iteration(迭代)、学习率Ir等等;然后,在网络中对输入图像进行一系列的卷积、池化等操作,得到包含目标类别、结构等信息的特征图。再对所提取的特征图进行上采样或反卷积、反池化等操作,实现特征图的特征组合和扩张,得到和原图像分辨率相同的输出。最后,利用Loss函数计算网络分割结果与真实结果的相似度,(其表达式为Loss=1-DSC,其中DSC为Dice系数,其表达式在实施例步骤叙述中已介绍。)当Loss<0.05时,说明网络模型分割效果已经满足要求,此时可得到训练好的网络分割模型。当Loss>0.05,则网络需要反向传播更新参数重新进行学习训练,即需要计算网络层中神经元的误差,然后求梯度误差,并根据梯度误差更新神经网络的参数,直至Loss小于0.05。
可选地,处理单元可以从由FCN和卷积-反卷积神经网络训练得到的特征分割模型作为目标特征分割模型。
在上述实施例中,处理单元通过对初始特征识别模型进行识别,可以得到能否对椎板目标区域进行精确提取的目标特征分割模型。
在其中一个实施例中,获取样本脊柱图像之后,还包括:对样本脊柱图像进行图像增强处理;图像增强处理包括:去噪处理、滤波处理、旋转处理、扭曲处理以及缩放处理中的至少一种。
具体地,对样本脊柱图像进行图像增强是为了扩充样本脊柱图像的数量以及将样本脊柱图像处理可用于初始特征识别模型输入输出。
示例性的,结合图6所示,图6为一个实施例中应用于脊柱图像的图像增强流程示意图,首先对脊柱图像数据库的图片进行去噪、滤波处理提高图像质量,数据增强主要用来扩充训练样本,数据增强主要包括缩放、旋转和扭曲等,将增强处理后的图像样本作为网络的输入。
在上述实施例中,处理单元对样本脊柱图像进行图像增强处理,能够扩充样本脊柱图像的数量,进而提高目标特征分割模型的识别的准确性。
在一个实施例中,如图7所示,提供了一种脊柱图像处理方法,包括以下步骤:
S702,获取基于上述任意一项实施例中的脊柱图像处理方法所得到的目标三维脊柱图像。
具体地,处理单元对待处理脊柱图像的处理过程可以参照上述任意一个实施例中所记载的方法的步骤,在此不再重复赘述。
S704,基于目标三维脊柱图像接收脊椎减压路径信息。
其中,脊椎减压路径信息是指用于控制医疗器械进行运动的信息,例如轨迹信息、位姿信息等。
可选地,处理单元在得到目标三维脊柱图像之后,将目标三维脊柱图像进行显示,医生可以在目标三维脊柱图像上规划对椎板进行减压的路径信息,此时处理单元上也会相应的接收到基于目标三维脊柱图像的脊椎减压路径信息。
示例性的,结合图8所示,图8为一个实施例中的脊柱特征区域的三维图像重建步骤示意图,处理单元基于目标特征区域进行椎板结构的三维图像重建和病灶区局部脊柱的三维图像重建。将椎板结构的三维图像和病灶区局部脊柱的三维图像进行显示,其中椎板重建图是对术中实时图像处理的结果,可以通过算法评估是否符合要求,局部脊柱的三维图像是为接下来的手术路径规划做准备,医生在局部脊柱三维图像进行路径规划。
S706,根据椎板减压路径信息对医疗器械进行控制。
具体地,处理单元根据脊椎减压路径信息对医疗器械进行控制,进而实现手术。其中,手术操作包括螺钉、骨板的植入。
可选地,在处理单元根据脊椎减压路径信息对医疗器械进行控制过程中,处理单元会实时获取待处理脊柱图像进行采集,并对待处理脊柱图像进行特征识别以及三维重建,使医生对三维重建图像进行评估,判断是否需重新获取待处理脊柱图像,进而实现术中实时感知患者状态。
在上述实施例中,处理单元在获取基于目标三维脊柱图像的脊椎减压路径信息之后,可以根据脊椎减压路径信息对医疗器械进行控制,进而实现自动进行手术以提高手术质量;其次,可以提高手术在线状态感知能力,量化实施手术和规划手术的误差,提高了手术质量。
在其中一个实施例中,根据椎板减压路径信息对医疗器械进行控制之前,包括:将目标三维脊柱图像以及操作空间进行配准,得到空间配准关系;根据椎板减压路径信息对医疗器械进行控制,包括:基于空间配准关系,根据脊椎减压路径信息对医疗器械进行控制。
其中,操作空间是指对医疗器械进行实际控制的空间;空间配准关系是指目标三维脊柱图像与操作空间的相对关系,能够有效地依据手术计划,实时引导手术的进行。
具体地,处理单元首先将目标三维脊柱图像与操作空间进行配准,得到空间配准关系,通过空间配准关系得到真实手术空间与目标三维脊柱图像空间的统一。
可选地,处理单元可以基于空间配准关系,即在实现目标三维脊柱图像空间与操作空间进行统一之后,根据脊椎减压路径信息对医疗机器进行控制。
在上述实施例中,处理单元首先将目标三维图像与操作空间进行配准,得到配准关系,再基于配准关系,根据脊椎减压路径信息对医疗器械进行控制,进而实现对医疗器械的精准控制。
在一个实施例中,操作空间包括目标对象以及机械臂;将目标三维脊柱图像以及操作空间进行配准,得到空间配准关系,包括:根据光学标记点,将目标三维脊柱图像与目标对象进行配准,得到第一配准关系;根据光学导航信息,将目标对象与机械臂进行配准,得到第二配准关系;根据第一配准关系和第二配准关系得到空间配准关系。
可选地,在根据获取待处理脊柱图像进行三维重建之前,将靶标分别安装在目标对象的待检测区域以及机械臂上。由于靶标安装在目标对象的待检测区域上,因此在获取待处理脊柱图像时,在待处理脊柱图像上存在与靶标对应的光学标记点,其可以通过光学导航定位设备NDI识别。
其中,第一配准关系是指目标三维脊柱图像与目标对象的配准关系,通过第一配准关系可以将目标对象与目标三维脊柱图像中的每一个部位进行一一对应。
具体地,处理单元根据光学标记点,将目标三维脊柱图像与目标对象进行配准,得到第一配准关系,通过第一配准关系可以将目标脊柱图像与目标对象一一对应。
其中,光学导航信息是指通过光学导航设备获取的不同坐标系之间的转换关系,例如光学导航坐标系与患者坐标系的转换关系,光学导航坐标系与机械臂的转换关系。其中,患者靶标对应患者坐标系,机械臂末端靶标对应机械臂坐标系。
其中,第二配准关系是指目标对象与机械臂之间的配准关系,通过第二配准关系可以得到机械臂在患者空间坐标系的实时位置。
具体地,处理单元根据光学导航信息,将目标对象与机械臂进行配准,得到第二配准关系,通过第二配准关系可以得到机械臂在患者空间坐标系的实时位置位姿,也就是将光学导航设备作为中间量来得到机械臂与目标对象之间的配准关系。
具体地,处理单元将第一配准关系与第二配准关系进行配准,即将目标三维脊柱图像与目标对象之间的配准关系以及目标对象与机械臂之间的配准关系进行配准,得到配准空间。通过配准空间可以在目标三维脊柱图像上的脊椎减压路径信息与机械臂空间的实时位姿实现位置上的统一,即真实手术空间与虚拟图像空间的统一。
在上述实施例中,处理单元首先将目标三维脊柱图像与目标对象进行配准得到第一配准关系,然后将目标对象与机械臂进行配准,得到第二配准关系,最后根据第一配准关系以及第二配准关系进行配准,得到空间配准关系,即借助于目标对象将目标三维脊柱图像与操作空间进行配准,进而得到空间配准关系,以使对医疗机械的控制更加准确。
在一个实施例中,根据光学标记点,将目标三维脊柱图像与目标对象进行配准,得到第一配准关系,包括:获取光学标定点在目标三维脊柱图像的第一位置信息以及光学标定点在目标对象的第二位置信息;根据第一位置信息以及第二位置信息进行配准,得到第一配准关系。
其中,第一位置信息是指光学标定点在目标三维脊柱图像上的位置信息;第二位置信息是指光学标定点在目标对象上的位置信息。
示例性的,处理单元可以利用术中影像采集设备采集患者病灶区影像,通过相关算法获取标记点在三维重建图像上的位置,利用光学导航追踪设备采集标记点在光学导航坐标系的位置,得到标记点在三维重建图坐标系的位置和在患者坐标系上的位置,即第一配准关系。
在上述实施例中,处理单元通过光学标记点实现目标三维脊柱图像与目标对象的配准。
在一个实施例中,根据光学导航信息,将目标对象和机械臂进行配准,得到第二配准关系,包括:分别获取光学导航定位设备与目标对象的第一转换关系以及光学导航定位设备与机械臂的第二转换关系;根据第一转换关系以及第二转换关系,得到第二配准关系。
其中,第一转换关系是指光学导航设备与患者坐标系的转换关系,示例性的,第一转换关系可以表示为光学导航坐标系{O}-患者坐标系{P}的转换关系T(OP);第二转换关系是指光学导航设备与机械臂的转换关系,示例性的,第二转换关系可以表示为光学导航坐标系{O}-机械臂坐标系{R}的转换关系T(RO)。
示例性的,可以将第一转换关系与第二转换关系进行相乘就可以计算得到第二配准关系,如T(RP)=T(RO)*T(OP),其中T(RP)表示第二配准关系。
在上述实施例,处理单元可以通过光学导航定位设备与目标对象的第一转换关系以及光学导航定位设备与机械臂的第二转换关系进行计算,得到目标对象与机械臂之间的配准关系。
在一个示例性实施例中,如图9所示,图9为一个实施例中的空间关系配准示意图,具体可以分为以下几个步骤:
(1)获取光学导航坐标系{O}-患者坐标系{P}的转换关系T(OP);获取光学导航坐标系{O}-机械臂坐标系{R}的转换关系T(RO)。
(2)利用术中影像采集设备采集患者病灶区影像,通过相关算法获取标记点在三维重建图像上的位置,利用光学导航追踪设备采集标记点在光学导航坐标系的位置,得到标记点在三维重建图坐标系的位置和在患者坐标系上的位置。即三维重建图坐标系{I}-患者坐标系{P}的转换关系T(PI)。
(3)通过上述转换关系获取三维重建图坐标系与机械臂坐标系的转换关系T(RI),T(RI)=T(RO)*T(OP)*T(PI)
在上述实施例中,可以在三维重建图空间的手术路径规划与手术工具在机械臂空间的实时位姿通过T(RI)实现位置上的统一,即真实手术空间与虚拟图像空间的统一。
在一个实施例中,如图10所示,图10为一个实施例中的医疗器械控制场景示意图,其中主要包括导航台车1001、手术工具1002、机械臂1003和机械臂台车1004,具体实施步骤可结合图11所示,图11为一个实施例中的医疗器械控制步骤示意图:
S1101,术中实时扫描病灶区图像得到患者的CBCT图像。
S1102,将S1101中获取的CBCT图像放入分割神经网络进行特征分割与提取。
S1103,将S1102特征提取得到的图像进行三维重建,得到曲面饱满的脊柱局部三维图像。
S1104,图像评估反馈,医生对三维重建图像进行评估,判断是否需要重新进行S1101,实现术中实时感知患者手术状态。
S1105,对重建后的三维脊柱图像进行椎板减压手术路径规划。
S1106,空间位置信息配准,主要包括患者-图像-手术工具的位置转换与定位。
S1107,机械臂沿手术轨迹的运动。
在上述实施例中,实时获取术中患者病灶区图像,将其传入分割神经网络模型实现椎板结构中的骨皮质、过渡区和骨松质区域的特征识别,重建病灶区椎板结构的三维图像,更新和补充脊柱的椎板三维图像,提高了医生手术路径规划的精度和手术质量。其次,将目标三维脊柱图像以及操作空间进行配准,得到空间配准关系,并基于配准关系控制机械臂沿手术轨迹进行运动,以使对医疗机械的控制更加准确。
在一个实施例中,如图12所示,提供了一种机器人系统,可以包括图像采集设备1203以及处理器1207。
在本实施例中,图像采集设备采集待处理脊柱图像。
然后,处理器可以执行上述任一实施例中的用于脊柱图像处理方法,得到目标三维脊柱图像。
在其中一个实施例中,上述机器人系统还包括:导航设备1202。
具体地,导航设备用于获取光学导航信息,处理器还用于根据光学导航信息,将目标三维脊柱图像以及操作空间进行配准,得到空间配准关系,并基于空间配准关系对医疗器械进行控制。
在其中一个实施中,上述机器人系统还包括导航显示器1201,导航显示器主要用于待处理脊柱图像的显示以及脊椎减压路径信息的规划。
在其中一个实施例中,上述机器人系统还包括手术台车1204,手术车台用于调节目标对象的位置移动。
在其中一个实施例中,上述机器人系统还包括机械臂台车1205和机械臂1206,机器臂台车上装载有机械臂,医疗器械安装于机械臂上。
在其中一个实施例中,机器人系统还可以包括呼吸机、CT机等,用于在进行临床手术时提供辅助作用。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的脊柱图像处理方法的脊柱图像处理装置和医疗器械控制方法的医疗器械控制装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个脊柱图像处理装置实施例中的具体限定可以参见上文中对于脊柱图像处理方法的限定以及医疗器械控制装置实施例中的具体限定可以参见上文对于医疗器械控制方法的限定,在此不再赘述。
在一个实施例中,如图13所示,提供了一种脊柱图像处理装置,包括:获取模块100、识别模块200、重建模块300、接收模块400和审核模块500,其中:
获取模块100,用于获取待处理脊柱图像;
识别模块200,用于对待处理脊柱图像进行特征识别,得到各椎板目标区域。
重建模块300,用于基于各椎板目标区域进行三维重建得到重建后的三维脊柱图像。
接收模块400,接收针对三维脊柱图像的审核结果。
审核模块500,用于当审核结果为不满足要求时,重新获取待处理脊柱图像,并继续对待处理图像进行特征识别以及三维重建,直至审核结果满足要求时通过三维椎板图像对三维脊柱图像进行更新,得到目标三维脊柱图像。
在一个实施例中,上述识别模块200包括:
第一提取单元,用于对待处理脊柱图像进行特征提取,得到不同尺度的第一椎板特征图。
扩张单元,用于对不同尺度的第一椎板特征图进行依次扩张,得到第一椎板输出特征图。
第一预测单元,用于对输出特征图的像素点进行分类,得到各椎板目标区域。
在一个实施例中,上述识别模块200还包括:
第二提取单元,用于对待处理脊柱图像进行特征提取,得到第二椎板特征图。
反向映射单元,用于对第二椎板特征图进行反向映射,得到第二椎板输出特征图。
第二预测单元,用于对第二椎板输出特征图的像素点进行预测,得到各椎板目标区域。
在一个实施例中,上述装置还包括:
样本获取模块,用于获取样本脊柱图像;样本脊柱图像携带标签数据。
训练模块,用于将样本脊柱图像分别输入至至少一个初始特征识别模型中进行训练,得到各初始特征数据。
预测模块,用于根据各初始特征数据与标签数据之间的偏差,对应调整初始特征识别模型的参数,得到至少一个训练完成的特征分割模型。
确定单元,用于从至少一个训练完成的特征分割模型中确定目标特征分割模型。
在一个实施例中,上述装置还包括:
预处理模块,用于对样本脊柱图像进行图像增强处理;图像增强处理包括:去噪处理、滤波处理、旋转处理、扭曲处理以及缩放处理中的至少一种。
在一个实施例中,如图14所示,提供了一种医疗器械控制装置,包括:图像接收模块600、信息获取模块700和控制模块800,其中:
图像接收模块600,用于获取基于上述任意一个实施例中的脊柱图像处理装置所得到的目标三维脊柱图像。
信息获取模块700,用于基于目标三维脊柱图像接收脊椎减压路径信息。
控制模块800,用于根据椎板减压路径信息对医疗器械进行控制。
在一个实施例中,上述医疗器械控制装置包括:
配准模块,用于将目标三维脊柱图像以及操作空间进行配准,得到空间配准关系。
在上述控制模块800包括:
信息控制单元,用于基于空间配准关系,根据脊椎减压路径信息对医疗器械进行控制。
在一个实施例中,上述配准模块包括:
第一配准单元,用于根据光学标记点,将目标三维脊柱图像与目标对象进行配准,得到第一配准关系。
第二配准单元,用于根据光学导航信息,将目标对象与机械臂进行配准,得到第二配准关系。
空间配准单元,用于根据第一配准关系和第二配准关系得到空间配准关系。
在一个实施例中,上述第一配准单元包括:
位置获取子单元,用于获取光学标定点在目标三维脊柱图像的第一位置信息以及光学标定点在目标对象的第二位置信息。
第一配准计算子单元,用于根据第一位置信息以及第二位置信息进行配准,得到第一配准关系。
在一个实施例中,上述第二配准单元包括:
关系获取子单元,用于分别获取光学导航定位设备与目标对象的第一转换关系以及光学导航定位设备与机械臂的第二转换关系。
第二配准计算子单元,用于根据第一转换关系以及第二转换关系,得到第二配准关系。
上述脊柱图像处理装置以及医疗器械控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是处理单元,其内部结构图可以如图15所示。该计算机设备包括处理器、存储器、输入/输出接口(Input/Output,简称I/O)和通信接口。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储待处理脊柱图像数据。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种脊柱图像处理方法。
本领域技术人员可以理解,图15中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述任意一个实施例中的方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意一个实施例中的方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (12)

1.一种脊柱图像处理方法,其特征在于,所述脊柱图像处理方法包括:
获取待处理脊柱图像;
对所述待处理脊柱图像进行特征识别,得到各椎板目标区域;
基于各所述椎板目标区域进行三维重建,得到重建后的三维脊柱图像以及三维椎板图像;
接收针对所述三维椎板图像的审核结果;
当所述审核结果为不满足要求时,重新获取所述待处理脊柱图像,并继续对所述待处理图像进行特征识别以及三维重建,直至所述审核结果满足要求时,通过所述三维椎板图像对所述三维脊柱图像进行更新,得到目标三维脊柱图像。
2.根据权利要求1所述的方法,其特征在于,对所述待处理脊柱图像进行特征识别,得到各椎板目标区域,包括:
对所述待处理脊柱图像进行特征提取,得到不同尺度的第一椎板特征图;
对所述不同尺度的第一椎板特征图进行依次扩张,得到第一椎板输出特征图;
对所述第一椎板输出特征图的像素点进行分类,得到各所述椎板目标区域。
3.根据权利要求1所述的方法,其特征在于,对所述待处理脊柱图像进行特征识别,得到各椎板目标区域,还包括:
对所述待处理脊柱图像进行特征提取,得到第二椎板特征图;
对第椎板二特征图进行反向映射,得到第二椎板输出特征图;
对所述第二椎板输出特征图的像素点进行预测,得到各所述椎板目标区域。
4.根据权利要求1所述的方法,其特征在于,对所述待处理脊柱图像进行特征识别,得到各目标区域是通过预先训练的脊柱特征分割模型得到的;所述目标特征分割模型的训练过程,包括:
获取样本脊柱图像;所述样本脊柱图像携带标签数据;
将所述样本脊柱图像分别输入至至少一个初始特征识别模型中进行训练,得到各初始特征数据;
根据各所述初始特征数据与所述标签数据之间的偏差,对应调整所述初始特征识别模型的参数,得到至少一个训练完成的特征分割模型;
从至少一个训练完成的所述特征分割模型中确定脊柱特征分割模型。
5.一种医疗器械控制方法,其特征在于,所述医疗器械控制方法包括:
获取基于权利要求1-4任意一项所述的脊柱图像处理方法所得到的目标三维脊柱图像;
基于所述目标三维脊柱图像接收椎板减压路径信息;
根据所述椎板减压路径信息对医疗器械进行控制。
6.根据权利要求5所述的方法,其特征在于,根据所述椎板减压路径信息对医疗器械进行控制之前,包括:
将所述目标三维脊柱图像以及操作空间进行配准,得到空间配准关系;
根据所述椎板减压路径信息对医疗器械进行控制,包括:
基于所述空间配准关系,根据所述脊椎减压路径信息对医疗器械进行控制。
7.根据权利要求6所述的方法,其特征在于,所述操作空间包括目标对象以及机械臂;将所述目标三维脊柱图像以及操作空间进行配准,得到空间配准关系,包括:
根据光学标记点,将所述目标三维脊柱图像与所述目标对象进行配准,得到第一配准关系;
根据光学导航信息,将所述目标对象与所述机械臂进行配准,得到第二配准关系;
根据所述第一配准关系和所述第二配准关系得到空间配准关系。
8.根据权利要求7所述的方法,其特征在于,根据光学标记点,将所述目标三维脊柱图像与目标对象进行配准,得到第一配准关系,包括:
获取光学标定点在所述目标三维脊柱图像的第一位置信息以及所述光学标定点在所述目标对象的第二位置信息;
根据所述第一位置信息以及所述第二位置信息进行配准,得到第一配准关系。
9.根据权利要求7所述的方法,其特征在于,根据光学导航信息,将所述目标对象和所述机械臂进行配准,得到第二配准关系,包括:
分别获取光学导航定位设备与所述目标对象的第一转换关系以及所述光学导航定位设备与所述机械臂的第二转换关系;
根据所述第一转换关系以及所述第二转换关系,得到所述第二配准关系。
10.一种机器人系统,其特征在于,包括图像采集设备以及处理器;
所述图像采集设备用于采集待处理脊柱图像;
所述处理器处理执行权利要求1至4任意一项所述的方法,得到的目标三维脊柱图像。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4或5至9中任一项所述的方法的步骤。
12.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至4或5至9中任一项所述的方法的步骤。
CN202310063683.4A 2023-01-12 2023-01-12 脊柱图像处理方法、装置、计算机设备、存储介质 Pending CN116052158A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310063683.4A CN116052158A (zh) 2023-01-12 2023-01-12 脊柱图像处理方法、装置、计算机设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310063683.4A CN116052158A (zh) 2023-01-12 2023-01-12 脊柱图像处理方法、装置、计算机设备、存储介质

Publications (1)

Publication Number Publication Date
CN116052158A true CN116052158A (zh) 2023-05-02

Family

ID=86117949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310063683.4A Pending CN116052158A (zh) 2023-01-12 2023-01-12 脊柱图像处理方法、装置、计算机设备、存储介质

Country Status (1)

Country Link
CN (1) CN116052158A (zh)

Similar Documents

Publication Publication Date Title
US11862348B2 (en) Systems and methods for using generic anatomy models in surgical planning
US11380084B2 (en) System and method for surgical guidance and intra-operative pathology through endo-microscopic tissue differentiation
US20200327721A1 (en) Autonomous level identification of anatomical bony structures on 3d medical imagery
EP3355273B1 (en) Coarse orientation detection in image data
US20210401501A1 (en) System and method for recommending parameters for a surgical procedure
CN113506308A (zh) 一种医学图像中基于深度学习的椎骨定位与脊柱分割方法
WO2013016113A1 (en) Tool tracking during surgical procedures
CN117408908B (zh) 一种基于深度神经网络的术前与术中ct图像自动融合方法
Qi et al. An automatic path planning method of pedicle screw placement based on preoperative CT images
EP3821440B1 (en) Training a machine learning algorithm using digitally reconstructed radiographs
CN110533120A (zh) 器官结节的图像分类方法、装置、终端及存储介质
Zhang et al. A spine segmentation method under an arbitrary field of view based on 3d swin transformer
CN116052158A (zh) 脊柱图像处理方法、装置、计算机设备、存储介质
CN114881930A (zh) 基于降维定位的3d目标检测方法、装置、设备和存储介质
US20220207740A1 (en) Comparison of a region of interest along a time series of images
Rao et al. Spine Vision X-Ray Image based GUI Planning of Pedicle Screws Using Enhanced YOLOv5 for Vertebrae Segmentation
CN111476768B (zh) 图像配准方法、装置、路径规划方法、装置、系统及介质
CN114782624B (zh) 一种3d图像投影融合方法、装置、计算机设备和存储介质
EP4300414A1 (en) Transferring marker locations from a reference image to a follow-up medical image
US20230027544A1 (en) Image alignment apparatus, method, and program
Krol et al. Computer-aided osteotomy design for harvesting autologous bone grafts in reconstructive surgery
Zhang et al. SpineMamba: Enhancing 3D Spinal Segmentation in Clinical Imaging through Residual Visual Mamba Layers and Shape Priors
CN117274544A (zh) 一种手术导航空间变换方法及系统
CN116525120A (zh) 基于ct图像处理的胸外科手术规划方法、系统及存储介质
CN118262185A (zh) 注册标记物的特征识别方法、系统、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination