CN117274256A - 一种基于瞳孔变化的疼痛评估方法、系统及设备 - Google Patents

一种基于瞳孔变化的疼痛评估方法、系统及设备 Download PDF

Info

Publication number
CN117274256A
CN117274256A CN202311550989.9A CN202311550989A CN117274256A CN 117274256 A CN117274256 A CN 117274256A CN 202311550989 A CN202311550989 A CN 202311550989A CN 117274256 A CN117274256 A CN 117274256A
Authority
CN
China
Prior art keywords
feature
convolution
pupil
image
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311550989.9A
Other languages
English (en)
Other versions
CN117274256B (zh
Inventor
田晴
王传跃
毛珍
薄奇静
范玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Anding Hospital
Original Assignee
Beijing Anding Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Anding Hospital filed Critical Beijing Anding Hospital
Priority to CN202311550989.9A priority Critical patent/CN117274256B/zh
Publication of CN117274256A publication Critical patent/CN117274256A/zh
Application granted granted Critical
Publication of CN117274256B publication Critical patent/CN117274256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Image Analysis (AREA)

Abstract

本申请涉及智能医疗领域,具体涉及一种基于瞳孔变化的疼痛评估方法、系统及设备。包括获取眼部图像;将所述眼部图像输至分割网络进行分割得到瞳孔分割图像;将所述眼部图像与所述瞳孔分割图像输至特征融合网络进行特征融合得到融合特征;基于所述融合特征进行评估得到疼痛评分。本申请采用可变形卷积进行眼部图像分割,适应性调整并计算偏移量,能够很好的提取瞳孔变化特征,同时通过空间和通道解耦策略减少冗余信息,节约内存资源,增强模型准确识别瞳孔区域和评估疼痛指数性能,该方法具有重要的临床诊断和治疗价值。

Description

一种基于瞳孔变化的疼痛评估方法、系统及设备
技术领域
本申请涉及智能医疗领域,具体涉及一种瞳孔变化的疼痛评估方法、系统、设备、计算机可读存储介质。
背景技术
随着计算机视觉技术的飞速发展,图像处理和分析在医疗领域得到了广泛的应用。瞳孔是人体的重要组织之一,其形状、大小和动态变化可以反映出人体的健康状况,特别是与某些疾病和生理反应相关的信息。因此,对瞳孔图像的精确分割和分析对于临床诊断和治疗具有重要意义。然而,由于瞳孔图像的特点,如微小的细节、边界模糊以及可能的噪声干扰,使得对其进行准确分析变得非常困难。传统的图像处理方法往往无法满足高精度和实时性的需求。此外,瞳孔的微小变化可能与疼痛、疲劳等生理状态有关,因此,开发一种能够准确评估疼痛的方法也是研究的重要方向。
发明内容
为了解决这些问题,本发明结合计算机视觉和深度学习技术,提出了一种基于瞳孔变化的疼痛评估方法,具体包括:
获取眼部图像;
将所述眼部图像输至分割网络进行分割得到瞳孔分割图像,其中,所述分割网络分为特征编码、特征解码两个阶段;所述特征编码是对图像特征进行编码,包括一个卷积块、N个编码块,所述编码块由多方向感受野卷积模块、聚合嵌入信息注意力模块组成;所述特征解码是对图像特征进行解码,包括N-1个解码块、一个卷积块,所述解码块由上采样模块、U-Net卷积块组成;编码阶段与解码阶段串行相连,编码阶段的N-1个编码块通过跳跃连接将当前层的图像特征输至解码阶段相同维度的N-1个解码块中,所述眼部图像依次经过编码阶段与解码阶段得到所述瞳孔分割图像,N为大于1的自然数;
将所述眼部图像与所述瞳孔分割图像输至特征融合网络进行特征融合得到融合特征;
基于所述融合特征进行评估得到疼痛评分。
进一步,所述多方向感受野卷积模块对眼部图像进行特征提取,模块依次通过深度卷积层、偏移量计算层得到特征偏移量,同时通过卷积层、逐点卷积层得到卷积后的特征,将所述特征偏移量与所述卷积后的特征融合得到多方向感受野卷积特征图;其中,所述深度卷积层和所述逐点卷积层解耦空间与通道的相关性,分别处理通道信息和空间信息。
进一步,所述多方向感受野卷积特征图的表示公式为:
其中,x为输入特征,D表示在模型训练期间卷积核的感受野,代表目标像素点,表示目标像素点落入感受野中的位置,表示卷积学习到的权重,代表学习偏移 量。
所述聚合嵌入信息注意力模块采用聚合嵌入信息注意力机制将通道注意力分解为两个并行的一维特征,所述一维特征通过逐点像素值加和求平均融合后输至1×1逐点卷积层得到水平方向、垂直方向的空间特征图,所述空间特征图沿空间方向聚合特征得到一对注意特征图,通过残差连接将所述一对注意特征图与所述聚合嵌入信息注意力模块的输入图点乘融合得到融合特征图。
进一步,所述聚合嵌入信息注意力的计算公式为:
其中,为输入权重矩阵,为h方向的权重矩阵,为w方向的权重矩阵。
所述特征融合网络采用多层神经网络进行特征融合,所述多层神经网络中基于趋光性融合原理进行参数优化,所述参数包括权重和偏置;所述权重和偏置视为多维空间的生物体,目标函数的值视为所述多维空间的光线,通过生物趋光性迭代优化得到目标函数的最小权重和偏置。
所述评估采用极限学习机进行疼痛等级评估,所述极限学习机基于分块矩阵求逆 优化输出层的权重,所述输出层的权重矩阵表示为:
其中,为隐藏层与隐藏层之间的相关矩阵的求逆,为隐藏层输出矩阵的转置 矩阵,为目标输出矩阵。
本申请的目的在于提供一种基于瞳孔变化的疼痛评估系统,包括:
数据获取单元:获取眼部图像;
图像分割单元:将所述眼部图像输至分割网络进行分割得到瞳孔分割图像,其中,所述分割网络分为特征编码、特征解码两个阶段;所述特征编码阶段是对图像特征进行编码,包括一个卷积块、N个编码块,所述编码块由多方向感受野卷积模块、聚合嵌入信息注意力模块组成;所述特征解码阶段是对图像特征进行解码,包括N-1个解码块、一个卷积块,所述解码块由上采样模块、U-Net卷积块组成;编码阶段与解码阶段串行相连,编码阶段的N-1个编码块通过跳跃连接将当前层的图像特征输至解码阶段相同维度的N-1个解码块中,所述眼部图像依次经过编码阶段与解码阶段得到所述瞳孔分割图像,N为大于1的自然数;
图像融合单元:将所述眼部图像与所述瞳孔分割图像输至特征融合网络进行特征融合得到融合特征;
疼痛评估单元:基于所述融合特征进行评估得到疼痛评分。
本申请的目的在于提供一种基于瞳孔变化的疼痛评估设备,包括:
存储器与处理器,所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行时实现任意一项上述的一种基于瞳孔变化的疼痛评估方法。
本申请的目的在于提供一种计算可读存储介质,其上存储有计算机程序,包括:
所述计算机程序被处理器执行时实现任意一项上述的一种基于瞳孔变化的疼痛评估方法。
本申请的优势:
1. 提出多方向感受野卷积模块自适应调整采样点的偏移,使卷积形变为不规则形状以达到适应精细化特征的瞳孔形状的目的,同时为了解决增加偏移量带来的参数冗余和训练困难的问题,本申请使用深度卷积和逐点卷积对卷积的空间和通道相关性进行解耦,在保证卷积层特征提取能力的同时降低参数量和计算量,提高模型的推理速度。
2. 提出聚合嵌入信息注意力模块,该模块融合了空间和通道信息,通过聚焦于重要区域,有助于提高模型的特征识别能力和鲁棒性。
3. 采用趋光性融合原理用于模型参数优化,通过模拟生物对光线的反应进行参数优化,避免了陷入局部最优的问题,模型对输入噪声和局部最优的鲁棒性。
4. 基于分块矩阵求逆的极限学习机提供了一种高效的方式来进行疼痛评估,其隐藏层的权重和偏置是随机初始化的,简化了学习过程,优化的参数更新策略,大大提高了模型的计算效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获取其他的附图。
图1为本发明实施例提供的一种基于瞳孔变化的疼痛评估方法流程示意图;
图2为本发明实施例提供的一种基于瞳孔变化的疼痛评估系统示意图;
图3为本发明实施例提供的一种基于瞳孔变化的疼痛评估设备示意图;
图4为本发明实施例提供的瞳孔分割网络示意图;
图5为本发明实施例提供的多方向感受野卷积模块示意图;
图6为本发明提供的聚合嵌入信息注意力模块示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如S101、S102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
图1本发明示意图,具体包括:
S101:获取眼部图像;
在一个实施例中,瞳孔变化可以作为评估身体疼痛等级的指标之一。在疼痛研究中,瞳孔反应被认为是一种可靠的生理指标,可以反映出身体的疼痛程度。当身体受到疼痛刺激时,交感神经兴奋性会增加,副交感神经兴奋性会减小,导致瞳孔扩大。疼痛等级越高,瞳孔扩大的程度也会增加。因此,通过观察瞳孔的大小变化,可以评估疼痛的程度和变化。例如,在术后疼痛管理中,医生可以通过观察瞳孔的大小和反应性来判断患者疼痛的程度,以调整止痛药物的用量,总之,瞳孔变化可以作为评估身体疼痛等级的指标之一。采集眼部图像并通过计算机视觉技术、深度学习技术能够科学、准确地检测瞳孔的细微变化,进而评估疼痛指数,这具有重要的临床意义。
S102: 将所述眼部图像输至分割网络进行分割得到瞳孔分割图像,其中,所述分割网络分为特征编码、特征解码两个阶段;所述特征编码是对图像特征进行编码,包括一个卷积块、N个编码块,所述编码块由多方向感受野卷积模块、聚合嵌入信息注意力模块组成;所述特征解码是对图像特征进行解码,包括N-1个解码块、一个卷积块,所述解码块由上采样模块、U-Net卷积块组成;编码阶段与解码阶段串行相连,编码阶段的N-1个编码块通过跳跃连接将当前层的图像特征输至解码阶段相同维度的N-1个解码块中,所述眼部图像依次经过编码阶段与解码阶段得到所述瞳孔分割图像,N为大于1的自然数;
在一个实施例中,图像分割网络是一种深度学习网络,用于将图像分割成不同的区域或对象,图像分割算法采用下列的一种或几种:FCN、DeepLab v1/v2/v3、U-Net、SegNet、PSPNet、SEEM和Mask R-CNN等。这些网络的结构和性能各有不同,但它们的目标都是将图像分割成不同的区域或对象,以便后续的图像分析和处理任务。
在一个实施例中,U-Net是一种用于图像分割的神经网络模型其结构类似字母“U”,由编码器和解码器两个部分组成。编码器包括一系列卷积和池化操作,用于提取图像特征,每个程序块处理后,特征图逐步减小。解码器则包括一系列反卷积和跳跃连接,将编码器提取的特征信息与解码器的输出进行融合,实现精确的分割。跳跃连接是将下采样路径中的特征图与相应的上采样路径中的特征图连接起来,从而可以将先前提取的特征重新构建为与输入图像相同大小的特征图。U-Net的输出是一个与输入图像相同大小的分割图像,其中每个像素被分配了一个标签,表示它属于哪个对象或背景。
在一个实施例中,多方向感受野卷积是一种卷积神经网络的设计方法,其目的是为了更好地捕捉输入数据的不同方向特征。在标准的卷积神经网络中,卷积核通常是正方形或圆形,它们的感受野是单一方向的,只能捕捉到输入数据在一个方向上的特征。但是在实际应用中,很多数据的特征是多个方向的,例如图像中的边缘和纹理等。因此,通过多方向感受野卷积能更好地捕捉这些特征,多方向感受野卷积的基本思路是在网络中加入多个不同方向的卷积核,以捕捉不同方向的特征。
在一个实施例中,所述方法还包括对所述眼部图像进行数据预处理,所述数据预处理是基于眼部图像提取出瞳孔图像,再将瞳孔图像作为分割网络是输入得到瞳孔分割图像。
在一个具体实施例中,针对瞳孔图像的特点提出了瞳孔分割网络并将其应用于瞳孔图像分割以便于快捷有效地进行后续的疼痛评估。本发明的瞳孔分割网络分为特征编码阶段和特征融合阶段,如图4所示,基于U-Net的整体框架将多方向感受野卷积模块、聚合嵌入信息模块替换编码阶段的卷积模块和池化模块。瞳孔分割网络图中各特征的表示含义如下:
①:1×1卷积处理得到的特征;
②:多方向感受野卷积模块处理得到的特征;
③:聚合嵌入信息注意力模块处理得到的特征;
④:上采样模块处理得到的特征;
⑤:U-Net卷积处理得到的特征。
在特征编码阶段,本发明提出一种多方向感受野卷积模块来对瞳孔图像执行特征抽取。该模块增加了一个偏移变量到每个卷积核的采样点,允许它捕捉瞳孔的精细信息。为了降低网络中的冗余信息并提高其推理效率,本发明采用了通道和空间的解耦策略,有助于节省内存资源。此外,通过在编码阶段用多方向感受野卷积模块替代U-Net的标准卷积,本方法能够根据瞳孔图像的微小细节调整采样点的偏移,避免了固定感受野造成的信息损失,增强了模型的特征表示能力。
在特征融合阶段,本发明采用聚合嵌入信息注意力模块,其目的是将空间和通道信息进行整合,以提升模型的稳健性。该注意力模块通过两个一维编码器来探索通道与位置的关系,并运用卷积操作合并特征。为了进一步增强对瞳孔图像的特征识别,本发明还融入了残差瓶颈模块,以整合更深层的语义信息。此外,本发明所提出的注意力模块不仅帮助在融合空间和通道信息时减少噪音,还能提取出更细致的特征。鉴于可变形卷积的训练可能较为困难,本发明采用了残差连接,从而加速网络的学习过程。在解码步骤,本发明沿用了标准的U-Net上采样机制,确保特征图可以恢复到原始大小。
在一个实施例中,所述多方向感受野卷积模块对瞳孔图像进行特征提取,模块依次通过深度卷积层、偏移量计算层得到特征偏移量,同时通过卷积层、逐点卷积层得到卷积后的特征,将所述特征偏移量与所述卷积后的特征融合得到多方向感受野卷积特征图;其中,所述深度卷积和所述逐点卷积解耦空间与通道的相关性,分别处理通道信息和空间信息。
在一个实施例中,逐点卷积(Pointwise Convolution) 是一种特殊的卷积操作,它使用1x1xM的卷积核对逐层卷积的结果进行正常的卷积操作,其中M为上一层的通道数。这种操作可以理解为对逐层卷积结果中的每个通道进行线性组合,从而将多通道的特征图结合成一层结果特征图。逐点卷积的作用是对深度卷积后的特征进行升维,它常被用于神经网络中的维度转换。逐点卷积不会改变特征图的通道数,但会改变特征图的尺寸和感受野。
在一个实施例中,所述多方向感受野卷积特征图的表示公式为:
其中,x为输入特征,D表示在模型训练期间卷积核的感受野,代表目标像素点,表示目标像素点落入感受野中的位置,表示卷积学习到的权重,代表学习偏移 量。
在一个具体实施例中,多方向感受野卷积模块进行特征提取的主要架构如图5所示,输入特征图分为两个处理路径,通道路径(上面的路径)处理通道信息,依次通过深度卷积层(5层)和偏移量计算层得到特征图中偏移量,空间路径(下面的路径)通过并行卷积和1×1逐点卷积获取特征图的空间信息,将通道路径的偏移量与空间路径的空间信息融合输入特征图。
在一个具体实施例中,由于瞳孔图像特征比较细微,常规的分割网络大多使用固定形状的方形卷积核进行特征学习,且,常规卷积单元在输入的特征图的固定位置进行采样,对瞳孔图像上下文信息的提取能力较弱,大幅限制了对特征细微的瞳孔图像的多尺度信息提取能力。
为了解决上述问题,本发明提出多方向感受野卷积模块,通过在卷积操作中增加 偏移量,使卷积形变为不规则形状以达到适应精细化特征的瞳孔形状的目的。为了解决增 加偏移量带来的参数冗余和训练困难的问题,本发明使用深度卷积和逐点卷积对卷积的空 间和通道相关性进行解耦,在保证卷积层特征提取能力的同时降低参数量和计算量,提高 模型的推理速度。同时,为了适应精细化瞳孔图像的特征,多方向感受野卷积模块可实现卷 积核在不同位置、不同尺度与形状的偏移。通过学习偏移位置,提供任意形状的卷积核,从 而自适应地确定感受野的尺度并获得更好的定位能力。其中,一个多方向感受野卷积模块 包含卷积层、偏移量计算层、归一化层和激活层。输入特征图经过常规的卷积操作后,输出 特征图可被表示为:
其中,x为输入特征图,D表示在模型训练期间卷积核的感受野,代表目标像素 点,表示目标像素点落入感受野中的位置,w()代表卷积学习到的权重。
进一步地,不同于常规卷积,特征图x通过多方向感受野卷积模块后,得到的输出特征图定义为:
其中,可学习偏移量使得采样的位置变得不规则,为浮点型数据。
进一步地,为了确保获取到的偏置值均为整数,使用双线性插值来确定采样位置 的像素值,最终采样位置的像素值定义为:
其中,表示学习到的权重,表示卷积的邻域像素, 代表双线性插值操作。
对于多方向感受野卷积的每一层,当卷积层的输入是个通道的特征图时,相应的 偏置为个通道,是因为每个通道分别包括方向上的两个偏移映射。在获得所有采样 位置的像素值后,将生成新的特征映射。在训练期间,网络同时学习生成输出特征图的多方 向感受野卷积的权重和用于计算偏移量的卷积核权重。
进一步地,为了减少可变形卷积的计算复杂度,本发明引入深度卷积与逐点卷积替代可变形卷积中每一层的常规卷积。在常规卷积中,通过跨通道维的卷积核实现空间与通道间相关性的联合映射,会造成特征信息的冗余。而通过深度卷积与逐点卷积解耦空间与通道间相关性,提高网络特征表达能力的同时减少计算复杂度,实现网络轻量化。
具体的,当输出特征图x尺寸为,常规卷积核计算量为 ,可变形卷积的计算量为,多方向感受野卷积的计算 量为。与可变形卷积相比,本发明提出的多方向感受野卷 积模块的计算量可缩减为可变形卷积的0.6倍,其中,M为输入特征的通道数,N为输出特征 的通道数,卷积核大小为分别为输入特征的高度与宽度。此外,为了获取到更精 细的分割结果,在每一多方向感受野卷积模块后使用残差设计,从而缓解网络层数过深带 来的梯度消失现象并加速网络的收敛。基于此,多方向感受野卷积模块主要解决了瞳孔图 像中边界细节特征分割困难的问题。其感受野可以随着瞳孔的尺寸、大小和形状进行自适 应的调整,在提高分割精度的同时降低了网络的计算和内存开销。
在一个实施例中,所述聚合嵌入信息注意力模块采用聚合嵌入信息注意力机制将通道注意力分解为两个并行的一维特征,所述一维特征通过逐点像素值加和求平均融合后输至1×1逐点卷积层得到水平方向、垂直方向的空间特征图,所述空间特征图沿空间方向聚合特征得到一对注意特征图,通过残差连接将所述一对注意特征图与所述聚合嵌入信息注意力模块的输入图点乘融合得到融合特征图。
在一个实施例中,所述聚合嵌入信息注意力的计算公式为:
其中,为输入权重矩阵,为h方向的权重矩阵,为w方向的权重矩阵。
在一个具体实施例中,聚合嵌入信息注意力模块的构成,如图6所示,输入特征图被分解成为两个并行的一维特征,所述一维特征通过逐点像素值加和求平均融合后输至1×1逐点卷积层卷积后的特征,所述卷积后的特征包含水平方向、垂直方向的空间特征图,所述空间特征图沿空间方向聚合特征得到一对注意特征图,通过残差连接将所述一对注意特征图与所述聚合嵌入信息注意力模块的输入图点乘融合得到融合特征图。
在一个具体实施例中,由于瞳孔图像存在边界细节分割难,很导致图像分割边缘粗糙。注意力机制可以增强模型的表征能力,通过聚焦于重要区域和和通道,抑制噪声的影响,提高模型对输入噪声的鲁棒性。现有的的注意力机制可以分为空间注意力、通道注意力和混合注意力机制。通道注意力机制主要通过捕获任意两个特征图之间的通道依赖关系获得权重信息,对所有通道进行加权,从而提升网络的分割精度,但其忽略了空间位置信息。为了解决该问题,本发明提出了聚合嵌入信息注意力模块。通过在通道注意力中耦合不同方向的空间位置信息的同时捕获位置信息和通道之间的关系,实现跨通道和空间的交互和信息整合,从而获取全局依赖关系和长程上下文信息,建立并提升模型的全局信息提取能力。
具体的,聚合嵌入信息注意力机制是将通道注意力分解为两个并行的一维特征编码,利用两个一维的特征编码分别沿垂直和水平方向将输入特征聚合为两个独立的位置映射。这两个具有嵌入方向信息的特征图分别编码为两个注意图,每个注意图捕获输入特征沿一个空间方向的长程依赖关系。最终,将得到的两个注意力权重与输入特征图相乘,以提高模型的定位能力从而精准地识别瞳孔区域。
在通道注意力中,通常使用全局池化对空间信息进行全局编码,然而该操作将全 局空间信息压缩到通道信息中,因此很难保留位置信息。为了使注意力模块获得空间位置 信息,首先使用尺寸为的卷积核对输入进行平均池化,使其沿水平坐标和垂 直坐标对通道进行编码,水平方向的输出为:
其中,为给定的输入,为给定特征图的高度,为给定特征图的通道数。
同理可得,宽度为w的第c个通道的输出为:
将上述两个方向的变换分别沿空间方向聚合特征,得到一对方向感知的特征图,其可通过注意力模块捕捉到沿着一个空间方向的长距离依赖关系,并保存沿着另一个空间方向的精确位置信息,有助于网络更准确地定位感兴趣的目标。
为了更好的利用上述模块生成的注意力图,充分利用捕获到的位置信息,使通道与位置信息进行更充分的融合,使用两层共享的1×1卷积进行变换得到卷积变化函数S_1的水平方向和垂直方向空间信息的特征图f为:
其中,表示沿空间维度的拼接运算。为非线性函数。为了降低模型的复杂 度,以适当的通道压缩率来减少特征图的通道数。将特征图沿着空间维度切分为两个单独 的张量进而得到:
其中,为Sigmoid激活函数,方向卷积变换,方向卷积变 换。最后将其作为权重叠加在原图上得到聚合嵌入信息注意力:
与只关注通道或空间重要性的注意力不同,本发明提出的聚合嵌入信息注意力模块将位置信息嵌入到通道注意力中,并进行了充分的融合。水平和垂直方向的注意力同时被施加到输入特征中,使聚合嵌入信息注意力更准确地定位感兴趣对象的确切位置,从而帮助模型实现更准确的目标定位。
S103: 将所述眼部图像与所述瞳孔分割图像输至特征融合网络进行特征融合得到融合特征;
在一个实施例中,特征融合网络是一种用于将不同特征进行融合以增强网络性能的网络结构。特征融合的目的是将从图像中提取到的不同特征合并成一个比输入图片特征更具有判别能力的特征。在很多工作中,融合不同尺度的特征是提高分割性能的一个重要手段。例如,一些工作通过融合多层来提升检测和分割的性能。
在一个实施例中,所述眼部图像在与瞳孔分割图像融合前存在数据预处理,所述数据预处理是将所述眼部图像提取瞳孔图像,所述瞳孔图像与瞳孔分割图像进行特征融合。
在一个实施例中,所述特征融合网络采用多层神经网络进行特征融合,所述多层神经网络中基于趋光性融合原理进行参数优化,所述参数包括权重和偏置;所述权重和偏置视为多维空间的生物体,目标函数的值视为所述多维空间的光线,通过生物趋光性迭代优化得到目标函数的最小权重和偏置。
在一个实施例中,优化算法包括下列的一种或几种:趋光性融合原理、模拟退火算法、鱼群算法、蚁群算法、晶体生长优化算法、遗传算法、小生境算法、粒子群算法。
在一个具体实施例中,本发明提出的瞳孔特征融合神经网络为多层神经网络,区别于传统神经网络采用梯度下降法进行参数优化,本发明采用趋光性融合原理进行神经网络训练过程中的参数优化,以避免在参数寻优时,陷入局部最优现象。趋光性融合原理是基于生物对光线的反应和趋势,许多生物体在寻找光源或避免强光时,都会对光线产生特定的反应,本发明模拟该现象,将其应用于权重和偏置的优化过程中。在本方法中,神经网络的权重和偏置被视为在一个多维空间中的生物体,而目标函数的值则被视为这个空间中的光线。类似于生物体会趋向于某种特定的光强度,神经网络参数的优化目标是寻找那些使目标函数值达到最小的权重和偏置。
在一个具体实施例中,趋光性融合原理的优化步骤如下:
1、初始化
初始化神经网络的权重w和偏置b,定义神经网络架构,其输入层与原始瞳孔图像和瞳孔分割图像的像素点数量之和相等,输出层为100个神经元,即,输出100维的特征向量。该网络的目标函数为均方根误差函数,该函数的值取决于网络输出与实际输出之间的差异。
2、瞳孔图像编码:
对原始瞳孔图像和瞳孔分割图像进行编码,生成一组编码特征。设原始瞳孔图像 为,瞳孔分割图像为,将两图像进行编码得到:
其中,表示特征融合操作,分别表示原始瞳孔图像和瞳孔分割图像的编码 函数。原始瞳孔图像;为瞳孔分割图像;为分别是原始瞳孔图像和瞳孔分割 图像的编码函数输出。
进一步地,编码函数可以表示为:
其中,为原始瞳孔图像和瞳孔分割图像的编码权重;为原始瞳孔图 像和瞳孔分割图像的编码偏置;为ReLU激活函数。
则,特征融合操作可以进一步变换为:
其中,融合系数,用于合并两个图像的编码特征,范围为[0,1]。
3、光源定位:
使用目标函数的当前值来模拟光源的强度和位置。目标函数值越低,光线越强。定 义目标函数为,则模拟光源位置为:
其中,是一个正数,用于调整光源强度。为目标函数,衡量神经网络输出与 真实输出之间的差异。
进一步地,目标函数可以定义为:
其中,为第i个样本的实际输出;为第i个样本的神经网络预测输出;N为样本数 量;且,实际输出与预测输出通过预设的Softmax分类函数得到。
4、参数优化:
为每个权重和偏置计算它们在多维空间中的位置,根据每个参数与光源的距离和角度,计算一个移动方向。进一步地,更新每个参数,使其朝移动方向移动一小步。重复上述步骤,直到参数收敛或达到预设的迭代次数。其中,每个参数的移动方向由下式决定:
其中,是学习率,分别表示目标函数对于权重和偏置的梯度。
进一步地,为了计算梯度,本发明使用链式法则。假设神经网络的输出是,则梯度为:
其中,是损失函数对输出的导数,而分别是输出对权重和偏置的导数。
进一步地,参数更新为:
5、反馈机制:
如果某个参数连续多次向同一个方向移动,但目标函数的值并没有明显改善,那么对该参数施加一个摆动或振荡,使其跳出可能的局部最小值。摆动的幅度和频率可以根据算法的表现进行调整。其中,摆动的幅度δ和频率f定义为:
其中,γ和ζ是常数,分别表示标准差和方差。δ为平均摆动幅度,基于过 去的权重和偏置变化;f为摆动频率。γ为常数,用于调整摆动幅度;ζ为常数,用于调整摆动 频率。
进一步地,摆动调整为:
其中,为当前迭代次数或时间。
6、结束条件:
当达到预设的最大迭代次数时,算法结束,即瞳孔特征融合神经网络训练完成。
S104:基于所述融合特征进行评估得到疼痛评分。
在一个实施例中,疼痛评估网络是一种基于深度学习的网络结构,用于评估疼痛指数或疼痛程度。通常,疼痛评估网络采用深度卷积神经网络作为基本结构。该网络首先接收包含疼痛相关信息的输入数据,这些数据经过预处理后,被送入神经网络进行训练。在训练过程中,疼痛评估网络通过反向传播算法不断调整权重和偏置参数,以最小化预测结果与实际疼痛指数之间的差异。常用的损失函数包括均方误差(MSE) 、交叉(Cross-Entropy)等。训练完成后,该网络可以根据输入数据预测相应的疼痛指数。疼痛评估网络采用下列的一种或几种:极限学习机、ResNet、BP神经网络、DenseNet、CNN、Dilated CNN、Spatial CNN、朴素贝叶斯。
在一个实施例中,所述评估采用极限学习机进行疼痛等级评估,所述极限学习机 基于分块矩阵求逆优化输出层的权重,所述输出层的权重矩阵表示为:
其中,为隐藏层与隐藏层之间的相关矩阵的求逆,为隐藏层输出矩阵的转置 矩阵,为目标输出矩阵。
在一个具体实施例中,疼痛评分分为四类,0分,临床表现无痛;1-3分轻微疼痛,临床表现为翻身、咳嗽、深呼吸时疼痛;4-6分中度疼痛,临床表现为安静平卧时有疼痛,影响睡眠;7-10分,重度疼痛,临床表现为翻转不安,无法入睡,全身大汗,无法入睡。
在一个具体实施例中,疼痛评估网络采用基于分块矩阵求逆的极限学习机进行疼痛评估。传统的极限学习机是一种单隐藏层的前馈神经网络,其隐藏层权重和偏置是随机初始化的,并不进行更新。在基于分块矩阵求逆的极限学习机中,结合分块矩阵求逆的技巧来提高极限学习机的性能,分块矩阵求逆方法利用了矩阵的分块特性,使得矩阵求逆的过程更为高效。
在一个具体实施例中,基于分块矩阵求逆的极限学习机算法训练步骤如下:
1、 隐藏层参数初始化:使用核技巧对隐藏层权重和偏置进行初始化。假设输入数 据为X,该数据的格式为,其中N是样本数量,是数据维度。使用核技巧对隐藏层权重和偏置进行初始化:
其中,K是核矩阵,可以是高斯核、多项式核等。b是偏置项。
进一步地,使用核技巧,定义如下核函数:
其中,是核函数的宽度参数。为数据集中的两个样本点;为核函数,用 于计算两个样本点之间的相似性;σ为核函数的宽度参数,控制了核函数的形状。
进一步地,利用该核函数,核矩阵的元素为:
其中,K为核矩阵,存储数据集中所有样本点之间的相似性;为核矩阵的第i行第 j列的元素,表示之间的相似性。
2、动态隐藏节点分配:根据数据的分布和复杂性,决定隐藏节点的数量。根据数据 的分布,计算数据的协方差矩阵
基于此,使用特征值分解确定隐藏节点的数量
其中,Λ为特征值矩阵,其中每一个对角元素是一个特征值。
进一步地,特征值分解的详细步骤如下:
其中,是第i个特征值。选择隐藏节点的数量时,期望如下:
其中,是预设的阈值,用于确定主成分的数量,常设为0.95,表示选取的主成分解 释了95%的方差。为数据的维度或特征数。
进一步得,选择前M个主成分,其中M是满足累积解释方差超过预定阈值的最小整数。
3、输出权重计算:使用分块矩阵求逆技巧高效地求解输出层的权重。隐藏层的输出为:
其中,是激活函数,例如Sigmoid或ReLU。
进一步地,使用分块矩阵求逆技巧求解输出层的权重。令为目标输出,为隐藏 层与隐藏层之间的相关矩阵,有:
其中,是正则化参数。利用分块矩阵求逆,可以得到:
其中,λ为正则化强度,用于控制模型的复杂度;为单位矩阵,与隐藏层输出矩阵 相同大小。
进一步地,定义正则化项。正则化的目的是为了防止过拟合,本发明使用L2正则化,所以有:
其中,是正则化强度。使用分块矩阵求逆,可以利用以下公式:
其中,是单位矩阵。
4、模型评估:采用交叉验证的方法来评估模型的性能,并调整相关参数。最终,模型的输出为:
其中,为模型的输出。
进一步地,模型的误差定义为均方误差:
其中,E为均方误差,表示模型预测和真实输出之间的差异;N为样本数量;为模 型对第i个样本的预测输出;为第i个样本的真实输出。
模型训练完成后,利用训练好的模型进行疼痛评估,进而得到疼痛区间(即分类器对应的各个类别)。
图2本发明实施例提供的一种基于瞳孔变化的疼痛评估系统示意图,具体包括:
数据获取单元:获取眼部图像;
图像分割单元:将所述眼部图像输至分割网络进行分割得到瞳孔分割图像,其中,所述分割网络分为特征编码、特征解码两个阶段;所述特征编码阶段是对图像特征进行编码,包括一个卷积块、N个编码块,所述编码块由多方向感受野卷积模块、聚合嵌入信息注意力模块组成;所述特征解码阶段是对图像特征进行解码,包括N-1个解码块、一个卷积块,所述解码块由上采样模块、U-Net卷积块组成;编码阶段与解码阶段串行相连,编码阶段的N-1个编码块通过跳跃连接将当前层的图像特征输至解码阶段相同维度的N-1个解码块中,所述眼部图像依次经过编码阶段与解码阶段得到所述瞳孔分割图像,N为大于1的自然数;
图像融合单元:将所述眼部图像与所述瞳孔分割图像输至特征融合网络进行特征融合得到融合特征;
疼痛评估单元:基于所述融合特征进行评估得到疼痛评分。
图3本发明实施例提供的一种基于瞳孔变化的疼痛评估设备示意图,具体包括:
存储器和处理器;所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行任意一项上述的一种基于瞳孔变化的疼痛评估方法。
一种计算机可读存储介质,所述计算机可读存储介质存储计算机程序,所述计算机程序被处理器执行时任意一项上述的一种基于瞳孔变化的疼痛评估方法。
本验证实施例的验证结果表明,为适应症分配固有权重相对于默认设置来说可以改善本方法的性能。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的介质存储可以是只读存储器,磁盘或光盘等。
以上对本发明所提供的一种计算机设备进行了详细介绍,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于瞳孔变化的疼痛评估方法,其特征在于,具体方法包括:
获取眼部图像;
将所述眼部图像输至分割网络进行分割得到瞳孔分割图像,其中,所述分割网络分为特征编码、特征解码两个阶段;所述特征编码是对图像特征进行编码,包括一个卷积块、N个编码块,所述编码块由多方向感受野卷积模块、聚合嵌入信息注意力模块组成;所述特征解码是对图像特征进行解码,包括N-1个解码块、一个卷积块,所述解码块由上采样模块、U-Net卷积块组成;编码阶段与解码阶段串行相连,编码阶段的N-1个编码块通过跳跃连接将当前层的图像特征输至解码阶段相同维度的N-1个解码块中,所述眼部图像依次经过编码阶段与解码阶段得到所述瞳孔分割图像,N为大于1的自然数;
将所述眼部图像与所述瞳孔分割图像输至特征融合网络进行特征融合得到融合特征;
基于所述融合特征进行评估得到疼痛评分。
2.根据权利要求1所述的基于瞳孔变化的疼痛评估方法,其特征在于,所述多方向感受野卷积模块对眼部图像进行特征提取,模块依次通过深度卷积层、偏移量计算层得到特征偏移量,同时通过卷积层、逐点卷积层得到卷积后的特征,将所述特征偏移量与所述卷积后的特征融合得到多方向感受野卷积特征图;其中,所述深度卷积层和所述逐点卷积层解耦空间与通道的相关性,分别处理通道信息和空间信息。
3.根据权利要求2所述的基于瞳孔变化的疼痛评估方法,其特征在于,所述多方向感受野卷积特征图的表示公式为:
其中,x为输入特征,D表示在模型训练期间卷积核的感受野,代表目标像素点,/>表示目标像素点落入感受野中的位置,/>表示卷积学习到的权重,/>代表学习偏移量。
4.根据权利要求1所述的基于瞳孔变化的疼痛评估方法,其特征在于,所述聚合嵌入信息注意力模块采用聚合嵌入信息注意力机制将通道注意力分解为两个并行的一维特征,所述一维特征通过逐点像素值加和求平均融合后输至1×1逐点卷积层得到水平方向、垂直方向的空间特征图,所述空间特征图沿空间方向聚合特征得到一对注意特征图,通过残差连接将所述一对注意特征图与所述聚合嵌入信息注意力模块的输入图点乘融合得到融合特征图。
5.根据权利要求4所述的基于瞳孔变化的疼痛评估方法,其特征在于,所述聚合嵌入信息注意力的计算公式为:
其中,为输入权重矩阵,/>为h方向的权重矩阵,/>为w方向的权重矩阵。
6.根据权利要求1所述的基于瞳孔变化的疼痛评估方法,其特征在于,所述特征融合网络采用多层神经网络进行特征融合,所述多层神经网络中基于趋光性融合原理进行参数优化,所述参数包括权重和偏置;所述权重和偏置视为多维空间的生物体,目标函数的值视为所述多维空间的光线,通过生物趋光性迭代优化得到目标函数的最小权重和偏置。
7.根据权利要求1所述的基于瞳孔变化的疼痛评估方法,其特征在于,所述评估采用极限学习机进行疼痛等级评估,所述极限学习机基于分块矩阵求逆优化输出层的权重,所述输出层的权重矩阵表示为:
其中,为隐藏层与隐藏层之间的相关矩阵的求逆,/>为隐藏层输出矩阵的转置矩阵,为目标输出矩阵。
8.一种基于瞳孔变化的疼痛评估系统,其特征在于,包括:
数据获取单元:获取眼部图像;
图像分割单元:将所述眼部图像输至分割网络进行分割得到瞳孔分割图像,其中,所述分割网络分为特征编码、特征解码两个阶段;所述特征编码阶段是对图像特征进行编码,包括一个卷积块、N个编码块,所述编码块由多方向感受野卷积模块、聚合嵌入信息注意力模块组成;所述特征解码阶段是对图像特征进行解码,包括N-1个解码块、一个卷积块,所述解码块由上采样模块、U-Net卷积块组成;编码阶段与解码阶段串行相连,编码阶段的N-1个编码块通过跳跃连接将当前层的图像特征输至解码阶段相同维度的N-1个解码块中,所述眼部图像依次经过编码阶段与解码阶段得到所述瞳孔分割图像,N为大于1的自然数;
图像融合单元:将所述眼部图像与所述瞳孔分割图像输至特征融合网络进行特征融合得到融合特征;
疼痛评估单元:基于所述融合特征进行评估得到疼痛评分。
9.一种基于瞳孔变化的疼痛评估设备,其特征在于,包括:
存储器与处理器,所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行时实现权利要求1-7任意一项上述的一种基于瞳孔变化的疼痛评估方法。
10.一种计算可读存储介质,其上存储有计算机程序,其特征在于,包括:
所述计算机程序被处理器执行时实现权利要求1-7任意一项上述的一种基于瞳孔变化的疼痛评估方法。
CN202311550989.9A 2023-11-21 2023-11-21 一种基于瞳孔变化的疼痛评估方法、系统及设备 Active CN117274256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311550989.9A CN117274256B (zh) 2023-11-21 2023-11-21 一种基于瞳孔变化的疼痛评估方法、系统及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311550989.9A CN117274256B (zh) 2023-11-21 2023-11-21 一种基于瞳孔变化的疼痛评估方法、系统及设备

Publications (2)

Publication Number Publication Date
CN117274256A true CN117274256A (zh) 2023-12-22
CN117274256B CN117274256B (zh) 2024-02-06

Family

ID=89216307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311550989.9A Active CN117274256B (zh) 2023-11-21 2023-11-21 一种基于瞳孔变化的疼痛评估方法、系统及设备

Country Status (1)

Country Link
CN (1) CN117274256B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097554A (zh) * 2019-04-16 2019-08-06 东南大学 基于密集卷积和深度可分离卷积的视网膜血管分割方法
CN110490083A (zh) * 2019-07-23 2019-11-22 苏州国科视清医疗科技有限公司 一种基于快速人眼语义分割网络的瞳孔精确检测方法
US20210248761A1 (en) * 2020-02-10 2021-08-12 Hong Kong Applied Science and Technology Research Institute Company Limited Method for image segmentation using cnn
CN113343943A (zh) * 2021-07-21 2021-09-03 西安电子科技大学 基于巩膜区域监督的眼部图像分割方法
CN113554669A (zh) * 2021-07-28 2021-10-26 哈尔滨理工大学 一种改进注意力模块的Unet网络脑肿瘤MRI图像分割方法
CN114648540A (zh) * 2022-03-22 2022-06-21 南京信息职业技术学院 一种基于MECAU-Net网络的医学图像分割方法
CN114821018A (zh) * 2022-04-11 2022-07-29 北京航空航天大学 一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法
US20220254030A1 (en) * 2019-06-04 2022-08-11 University Of Manitoba Computer-Implemented Method of Analyzing an Image to Segment Article of Interest Therein
CN115205300A (zh) * 2022-09-19 2022-10-18 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN115760867A (zh) * 2022-11-30 2023-03-07 云南大学 一种基于改进U-Net网络的类器官分割方法及系统
CN116309629A (zh) * 2023-01-31 2023-06-23 北京航空航天大学 一种基于门控轴向自注意力双编码卷积神经网络的视网膜血管分割方法
CN116363060A (zh) * 2023-02-14 2023-06-30 长春理工大学 一种基于残差u型网络的混合注意力视网膜血管分割方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097554A (zh) * 2019-04-16 2019-08-06 东南大学 基于密集卷积和深度可分离卷积的视网膜血管分割方法
US20220254030A1 (en) * 2019-06-04 2022-08-11 University Of Manitoba Computer-Implemented Method of Analyzing an Image to Segment Article of Interest Therein
CN110490083A (zh) * 2019-07-23 2019-11-22 苏州国科视清医疗科技有限公司 一种基于快速人眼语义分割网络的瞳孔精确检测方法
US20210248761A1 (en) * 2020-02-10 2021-08-12 Hong Kong Applied Science and Technology Research Institute Company Limited Method for image segmentation using cnn
CN113343943A (zh) * 2021-07-21 2021-09-03 西安电子科技大学 基于巩膜区域监督的眼部图像分割方法
CN113554669A (zh) * 2021-07-28 2021-10-26 哈尔滨理工大学 一种改进注意力模块的Unet网络脑肿瘤MRI图像分割方法
CN114648540A (zh) * 2022-03-22 2022-06-21 南京信息职业技术学院 一种基于MECAU-Net网络的医学图像分割方法
CN114821018A (zh) * 2022-04-11 2022-07-29 北京航空航天大学 一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法
CN115205300A (zh) * 2022-09-19 2022-10-18 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN115760867A (zh) * 2022-11-30 2023-03-07 云南大学 一种基于改进U-Net网络的类器官分割方法及系统
CN116309629A (zh) * 2023-01-31 2023-06-23 北京航空航天大学 一种基于门控轴向自注意力双编码卷积神经网络的视网膜血管分割方法
CN116363060A (zh) * 2023-02-14 2023-06-30 长春理工大学 一种基于残差u型网络的混合注意力视网膜血管分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CAIYONG WANG 等: "ScleraSegNet: An Attention Assisted U-Net Model for Accurate Sclera Segmentation", IEEE TRANSACTIONS ON BIOMETRICS, BEHAVIOR, AND IDENTITY SCIENCE, vol. 2, no. 1, pages 40 - 54, XP011768654, DOI: 10.1109/TBIOM.2019.2962190 *
孙语 等: "基于注意力机制和空洞卷积的瞳孔定位算法", 电子测量技术, vol. 46, no. 15, pages 126 - 132 *

Also Published As

Publication number Publication date
CN117274256B (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
Karthik et al. Attention embedded residual CNN for disease detection in tomato leaves
Lemhadri et al. Lassonet: Neural networks with feature sparsity
CN115018824B (zh) 一种基于CNN和Transformer融合的结肠镜息肉图像分割方法
Sharma et al. Brain tumor segmentation using genetic algorithm and artificial neural network fuzzy inference system (ANFIS)
Li et al. FWDGAN-based data augmentation for tomato leaf disease identification
CN112465905A (zh) 基于深度学习的磁共振成像数据的特征脑区定位方法
CN113989331A (zh) 基于上下文多线索信息和自适应响应的长时目标跟踪方法
CN113838067A (zh) 肺结节的分割方法和装置、计算设备、可存储介质
CN112633416A (zh) 一种融合多尺度超像素的脑ct图像分类方法
US20220383502A1 (en) Systems and methods for eyelid localization
Pal Identification of paddy leaf diseases using a supervised neural network
Kayadibi et al. An eye state recognition system using transfer learning: AlexNet-based deep convolutional neural network
Thangavel et al. EAD-DNN: Early Alzheimer's disease prediction using deep neural networks
Revathi et al. Particle Swarm Optimization based Detection of Diabetic Retinopathy using a Novel Deep CNN
CN112686098B (zh) 基于Shape-Resnet的大脑中高级视觉区信号处理方法及系统
Allada et al. Early diagnosis of Alzheimer disease from MRI using deep learning models
Redhya et al. Refining PD classification through ensemble bionic machine learning architecture with adaptive threshold based image denoising
Xia et al. HRNet: A hierarchical recurrent convolution neural network for retinal vessel segmentation
CN117274256B (zh) 一种基于瞳孔变化的疼痛评估方法、系统及设备
Ahmed et al. 3D U-Net: fully convolutional neural network for automatic brain tumor segmentation
Pei et al. FGO-Net: Feature and Gaussian Optimization Network for visual saliency prediction
Huang A novel residual shrinkage block-based convolutional neural network for improving the recognition of motor imagery EEG signals
CN116563524B (zh) 一种基于多视觉记忆单元的扫视路径预测方法
Liu et al. Brain hematoma segmentation based on deep learning and data analysis
Neffati et al. Machine learning based CAD system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant