CN113627483B - 基于自监督纹理对比学习的宫颈oct图像分类方法及设备 - Google Patents

基于自监督纹理对比学习的宫颈oct图像分类方法及设备 Download PDF

Info

Publication number
CN113627483B
CN113627483B CN202110778854.2A CN202110778854A CN113627483B CN 113627483 B CN113627483 B CN 113627483B CN 202110778854 A CN202110778854 A CN 202110778854A CN 113627483 B CN113627483 B CN 113627483B
Authority
CN
China
Prior art keywords
training
model
cervical
data set
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110778854.2A
Other languages
English (en)
Other versions
CN113627483A (zh
Inventor
马于涛
陈开一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110778854.2A priority Critical patent/CN113627483B/zh
Publication of CN113627483A publication Critical patent/CN113627483A/zh
Application granted granted Critical
Publication of CN113627483B publication Critical patent/CN113627483B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于自监督纹理对比学习的宫颈OCT图像分类方法及设备。该方法包括:按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。通过本发明,在小规模数据集上极大地提高了模型的性能。

Description

基于自监督纹理对比学习的宫颈OCT图像分类方法及设备
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于自监督纹理对比学习的宫颈OCT图像分类方法及设备。
背景技术
宫颈癌是女性最常见的恶性肿瘤之一,每年的新发病例和死亡病例主要集中在贫穷国家和发展中国家。《Lancet Global Health》上发表的一项调查显示,2018年中国新发宫颈癌病例约10.6万例,死亡病例约4.8万例。由于宫颈癌是目前唯一明确病因的癌症,世界卫生组织呼吁全球共同采取行动消除宫颈癌,并在2018年制定了三重干预措施及其2030目标。阴道镜下“活检”后进行病理检查是目前诊断宫颈癌的“金标准”,但由于医师操作不规范、“活检”位点数有限等诸多原因,在临床上不仅存在漏诊、误诊的可能性,而且费时费力。因此,迫切需要一种无创、高效和智能的宫颈癌筛查和诊断技术。
光学相干断层扫描(OCT)是一种新兴的生物医学成像技术,利用近红外光实时获取生物组织的高分辨率的横截面图像,穿透深度可达2毫米。目前,OCT已在人类眼底疾病的检查上发挥了巨大的作用,被认为是一种无创的“光学活检”方法。而且,已有不少研究证实了使用OCT识别离体和在体宫颈组织形态特征的有效性,这使得OCT作为阴道镜下“活检”的重要辅助工具来筛查和诊断宫颈癌变成了可能。
由于OCT在临床应用上的局限性,大多数病理师和妇科医生对宫颈组织的OCT图像还不了解。要想准确地分析OCT图像特征并做出快速诊断,医生需要接受严格的读图培训和较长时间的临床实践。因此,非常有必要开发针对OCT图像的计算机辅助宫颈癌诊断方法,用于减轻医生的工作压力,降低人为错误,从而提高工作效率。近几年来,随着深度学习技术的发展,卷积神经网络(CNN)在电子计算机断层扫描、核磁共振、超声等医学图像检测任务中获得了几乎与人类专家持平的结果。但是,CNN模型的有监督学习方式需要大量的标注数据,训练过程耗时耗力。
到目前为止,绝大多数针对宫颈OCT图像的计算机辅助诊断方法,是在小规模的标注数据集上进行训练,导致模型达不到整体的性能要求。然而,与自然图像不同的是,获取大量带标注的OCT图像数据集是十分困难的,这需要极其丰富和专业的领域知识,并耗费医生大量的时间和精力。
发明内容
本发明的主要目的在于提供一种基于自监督纹理对比学习的宫颈OCT图像分类方法、装置及设备,旨在解决现有技术中在小规模的标注数据集上进行训练,导致模型达不到整体的性能要求的技术问题。
第一方面,本发明提供一种基于自监督纹理对比学习的宫颈OCT图像分类方法,所述基于自监督纹理对比学习的宫颈OCT图像分类方法包括:
按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;
设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,其中,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;
以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;
通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。
可选的,所述通过预训练数据集对预训练模型进行训练,得到第一模型的步骤包括:
局部二值模式对输入的预训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
数据增强层对每张纹理特征图进行随机增强两次,得到两种不同的数据增强版本;
骨干网络提取不同的数据增强版本的深度特征,其中利用卷积神经网络作为骨干网络;
多层感知机对深度特征进一步处理,得到两种不同数据增强版本对应的输出矩阵O1、O2
并联O1、O2得到联合矩阵V,计算V和V的转置矩阵VT的乘积得到相似度矩阵,相似度矩阵中每个元素代表两个输出之间的余弦距离,最后经过对比损失函数计算得到预训练损失值;
根据预训练损失值计算预训练网络模型的梯度,通过反向传播更新预训练网络模型,经过预设次数的迭代训练后得到第一模型。
可选的,所述局部二值模式对输入的预训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图的步骤包括:
局部二值模式对输入的预训练数据集中的宫颈OCT图像进行纹理提取,得到初始纹理图;
将初始纹理图调整为与骨干网络适应的尺寸大小;
对经过尺寸大小调整后的初始纹理图进行归一化处理,得到纹理特征图。
可选的,所述对每张纹理特征图进行随机增强两次,得到两种不同的数据增强版本的步骤包括:
针对任一张纹理特征图产生一个随机数;
将随机数与每种数据增强方式的阈值进行比较,以小于随机数的阈值对应的数据增强方式对任一张纹理特征图进行数据增强,得到一种数据增强版本;
针对任一张纹理特征图再产生一个新的随机数;
将新的随机数与每种数据增强方式的阈值进行比较,以小于新的随机数的阈值对应的数据增强方式对任一张纹理特征图进行数据增强,得到另一种数据增强版本。
可选的,卷积神经网络的每一层均加入了批归一化,所述骨干网络提取不同的数据增强版本的深度特征的步骤包括:
骨干网络提取不同的数据增强版本的深度特征,通过全局平均池化层对所述深度特征进行全局平均池化,得到2048维的深度特征。
可选的,多层感知机层包含两层全连接层,所述多层感知机对深度特征进一步处理,得到两种不同数据增强版本对应的输出矩阵O1、O2的步骤包括:
第一层全连接层将2048维的深度特征进行扁平化处理得到512维的深度特征,并经过批归一化和激活函数之后输入512维的特征向量至第二层全连接层;
第二层全连接层将来自第一层全连接层输入的512维的特征向量再次进行扁平化处理得到128维的特征向量,并经过批归一化和激活函数之后输出,得到两种不同数据增强版本对应的输出矩阵O1、O2
可选的,所述通过训练数据集对第二模型进行训练,得到分类模型的步骤包括:
局部二值模式对输入的训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
数据增强层对每张纹理特征图进行一次数据增强;
第二模型中的骨干网络进行对经过数据增强后的纹理特征图进行特征提取;
分类器对骨干网络提取的特征进行扁平化处理输出分类预测;
利用softmax函数对分类器输出的分类预测进行回归,输出对应类别的概率;
利用新的对比损失函数计算下游任务损失值,通过下游任务损失值计算骨干网络模型参数的梯度,通过反向传播更新骨干网络模型参数,经过预设次数的迭代训练之后得到分类模型。
可选的,所述通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果的步骤包括:
局部二值模式对输入的测试数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
分类模型对纹理特征图进行预测;
当预测为阳性的概率大于任一类别对应的阈值时,将纹理特征图预测为阳性,采用十字交叉机制预测分类结果。
第二方面,本发明还提供一种基于自监督纹理对比学习的宫颈OCT图像分类装置,所述基于自监督纹理对比学习的宫颈OCT图像分类装置包括:
数据划分模块,用于按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;
第一训练模块,用于设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,其中,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;
第二训练模块,用于以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;
分类模块,用于通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。
第三方面,本发明还提供一种基于自监督纹理对比学习的宫颈OCT图像分类设备,所述基于自监督纹理对比学习的宫颈OCT图像分类设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的宫颈OCT图像分类程序,其中所述宫颈OCT图像分类程序被所述处理器执行时,实现如上所述的宫颈OCT图像分类方法的步骤。
本发明中,按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,其中,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。通过本发明,一方面,采用局部二值模式提取宫颈OCT图像的纹理特征图,因为纹理特征图能够放大局部病灶纹理并且减少图片噪声,因此利用纹理特征进行训练比直接在原图上训练效果更好,在此基础上进行自监督学习,也能更有针对性地挖掘宫颈OCT图像的深度特征,充分学习到相同类别的相似性和不同类别的相异性;另一方面,将自监督训练融入到医疗影像的分析中能够有效解决标注医疗数据稀少的场景,在小规模数据集上极大地提高了模型的性能。
附图说明
图1为本发明实施例方案中涉及的基于自监督纹理对比学习的宫颈OCT图像分类设备的硬件结构示意图;
图2为本发明基于自监督纹理对比学习的宫颈OCT图像分类方法一实施例的流程示意图;
图3为本发明基于自监督纹理对比学习的宫颈OCT图像分类方法一实施例中对预训练模型进行训练的示意图;
图4为本发明基于自监督纹理对比学习的宫颈OCT图像分类方法一实施例中对第二模型进行训练的示意图;
图5为本发明基于自监督纹理对比学习的宫颈OCT图像分类装置一实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
第一方面,本发明实施例提供一种宫颈OCT图像分类设备,该宫颈OCT图像分类设备可以是个人计算机(PC)、笔记本电脑、服务器等具有数据处理功能的设备。
参照图1,图1为本发明实施例方案中涉及的基于自监督纹理对比学习的宫颈OCT图像分类设备的硬件结构示意图。本发明实施例中,基于自监督纹理对比学习的宫颈OCT图像分类设备可以包括处理器1001(例如中央处理器CPU),通信总线1002,用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信;用户接口1003可以包括显示屏、输入单元比如键盘;网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真WI-FI接口);存储器1005可以是高速随机存取存储器(RAM),也可以是稳定的存储器,例如磁盘存储器,存储器1005可选的还可以是独立于前述处理器1001的存储装置。本领域技术人员可以理解,图1中示出的硬件结构并不构成对本发明的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
继续参照图1,图1中作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及宫颈OCT图像分类程序。其中,处理器1001可以调用存储器1005中存储的宫颈OCT图像分类程序,并执行本发明实施例提供的宫颈OCT图像分类方法。
第二方面,本发明实施例提供了一种基于自监督纹理对比学习的宫颈OCT图像分类方法。
一实施例中,参照图2,图2为本发明基于自监督纹理对比学习的宫颈OCT图像分类方法一实施例的流程示意图。如图2所示,基于自监督纹理对比学习的宫颈OCT图像分类方法包括:
步骤S10,按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;
本实施例中,可先收集若干宫颈OCT图像,例如收集宫颈组织的5类OCT图像10390个图像块,包括炎症(2446个)、柱状上皮外翻(1664个)、囊肿(1734个)、高度鳞状上皮内病变(HSIL)(4254个)和癌症(292个)。为验证本发明方法的有效性,按照如下方法划分了数据集:首先,按照第一比例,例如2:8,将数据集划分为预训练数据集(2118个)和分类数据集(8272个);再按照第二比例,例如9:1,将分类数据集划分为训练数据集,测试数据集。其中,预训练数据集中各类OCT图像之间的比例与分类数据集中各类OCT图像之间的比例相同,且来自同一个病人的数据不能同时存在于训练数据集和测试数据集中。
步骤S20,设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,其中,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;
本实施例中,预先搭建预训练模型的框架,预训练模型主要包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分。
再设置对比损失函数,并通过预训练数据集对预训练模型进行训练,得到第一模型。参照图3,图3为本发明基于自监督纹理对比学习的宫颈OCT图像分类方法一实施例中对预训练模型进行训练的示意图。如图3所示,先构建预训练模型、设置对比损失函数;再加载预训练数据集,将预训练数据集中的宫颈OCT图像输入预训练模型,经过局部二值模式、数据增强层、骨干网络以及多层感知机,再计算对比损失,更新模型参数,并迭代上述步骤,直至迭代一定次数后,得到第一模型。其中,对比损失函数为交叉熵损失函数。
进一步地,一实施例中,通过预训练数据集对预训练模型进行训练,得到第一模型的步骤包括:
步骤S201,局部二值模型对输入的预训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
进一步地,一实施例中,步骤S201包括:
局部二值模型对输入的预训练数据集中的宫颈OCT图像进行纹理提取,得到初始纹理图;将初始纹理图调整为与骨干网络适应的尺寸大小;对经过尺寸大小调整后的初始纹理图进行归一化处理,得到纹理特征图。
步骤S202,数据增强层对每张纹理特征图进行随机增强两次,得到两种不同的数据增强版本;
进一步地,一实施例中,步骤S202包括:
针对任一张纹理特征图产生一个随机数;将随机数与每种数据增强方式的阈值进行比较,以小于随机数的阈值对应的数据增强方式对任一张纹理特征图进行数据增强,得到一种数据增强版本;针对任一张纹理特征图再产生一个新的随机数;将新的随机数与每种数据增强方式的阈值进行比较,以小于新的随机数的阈值对应的数据增强方式对任一张纹理特征图进行数据增强,得到另一种数据增强版本。
本实施例中,数据增强方式包括但不限于平移、翻转、随机裁剪、旋转。
步骤S203,骨干网络提取不同的数据增强版本的深度特征,其中利用卷积神经网络作为骨干网络;
本实施例中,骨干网络为ResNet-101,并设置对照试验组,其中的骨干网络为VGG19、ResNet-50。
进一步地,一实施例中,卷积神经网络的每一层均加入了批归一化,步骤S203包括:
骨干网络提取不同的数据增强版本的深度特征,通过全局平均池化层对所述深度特征进行全局平均池化,得到2048维的深度特征。
步骤S204,多层感知机对深度特征进一步处理,得到两种不同数据增强版本对应的输出矩阵O1、O2
进一步地,一实施例中,步骤S204包括:
第一层全连接层将2048维的深度特征进行扁平化处理得到512维的深度特征,并经过批归一化和激活函数之后输入512维的特征向量至第二层全连接层;第二层全连接层将来自第一层全连接层输入的512维的特征向量再次进行扁平化处理得到128维的特征向量,并经过批归一化和激活函数之后输出,得到两种不同数据增强版本对应的输出矩阵O1、O2
步骤S205,并联O1、O2得到联合矩阵V,计算V和V的转置矩阵VT的乘积得到相似度矩阵,相似度矩阵中每个元素代表两个输出之间的余弦距离,最后经过对比损失函数计算得到预训练损失值;
步骤S206,根据预训练损失值计算预训练网络模型的梯度,通过反向传播更新预训练网络模型,经过预设次数的迭代训练后得到第一模型。
步骤S30,以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;
本实施例中,以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,再设置新的对比损失函数,并通过训练数据集对第二模型进行训练,得到分类模型。参照图4,图4为本发明基于自监督纹理对比学习的宫颈OCT图像分类方法一实施例中对第二模型进行训练的示意图。如图4所示,首先,以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,再设置新的对比损失函数,然后加载训练数据集,将训练数据集中的宫颈OCT图像输入第二模型,经过局部二值模式、数据增强层、骨干网络以及分类器处理之后,再计算对比损失,更新模型参数,并迭代上述步骤,直至迭代一定次数后,保存模型,即得到分类模型。
进一步地,一实施例中,通过训练数据集对第二模型进行训练,得到分类模型的步骤包括:
局部二值模式对输入的训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;数据增强层对每张纹理特征图进行一次数据增强;第二模型中的骨干网络进行对经过数据增强后的纹理特征图进行特征提取;分类器对骨干网络提取的特征进行扁平化处理输出分类预测;利用softmax函数对分类器输出的分类预测进行回归,输出对应类别的概率;利用新的对比损失函数计算下游任务损失值,通过下游任务损失值计算骨干网络模型参数的梯度,通过反向传播更新骨干网络模型参数,经过预设次数的迭代训练之后得到分类模型。
步骤S40,通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。
本实施例中,得到分类模型后,将测试数据集中的宫颈OCT图像输入分类模型,即可得到对应的分类结果。
进一步地,一实施例中,步骤S40包括:
局部二值模式对输入的测试数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;分类模型对纹理特征图进行预测;当预测为阳性的概率大于任一类别对应的阈值时,将纹理特征图预测为阳性,采用十字交叉机制预测分类结果。
本实施例中,按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,其中,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。通过本实施例,一方面,采用局部二值模式提取宫颈OCT图像的纹理特征图,因为纹理特征图能够放大局部病灶纹理并且减少图片噪声,因此利用纹理特征进行训练比直接在原图上训练效果更好,在此基础上进行自监督学习,也能更有针对性地挖掘宫颈OCT图像的深度特征,充分学习到相同类别的相似性和不同类别的相异性,实现宫颈OCT影像的准确分类;另一方面,将自监督训练融入到医疗影像的分析中能够有效解决标注医疗数据稀少的场景,在小规模数据集上极大地提高了模型的性能。
第三方面,本发明实施例还提供一种基于自监督纹理对比学习的宫颈OCT图像分类装置。
一实施例中,参照图5,图5为本发明基于自监督纹理对比学习的宫颈OCT图像分类装置一实施例的功能模块示意图。如图5所示,基于自监督纹理对比学习的宫颈OCT图像分类装置包括:
数据划分模块10,用于按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;
第一训练模块20,用于设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,其中,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;
第二训练模块30,用于以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;
分类模块40,用于通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。
进一步地,一实施例中,第一训练模块20,用于:
局部二值模式对输入的预训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
数据增强层对每张纹理特征图进行随机增强两次,得到两种不同的数据增强版本;
骨干网络提取不同的数据增强版本的深度特征,其中利用卷积神经网络作为骨干网络;
多层感知机对深度特征进一步处理,得到两种不同数据增强版本对应的输出矩阵O1、O2
并联O1、O2得到联合矩阵V,计算V和V的转置矩阵VT的乘积得到相似度矩阵,相似度矩阵中每个元素代表两个输出之间的余弦距离,最后经过对比损失函数计算得到预训练损失值;
根据预训练损失值计算预训练网络模型的梯度,通过反向传播更新预训练网络模型,经过预设次数的迭代训练后得到第一模型。
进一步地,一实施例中,第一训练模块20,用于:
局部二值模式对输入的预训练数据集中的宫颈OCT图像进行纹理提取,得到初始纹理图;
将初始纹理图调整为与骨干网络适应的尺寸大小;
对经过尺寸大小调整后的初始纹理图进行归一化处理,得到纹理特征图。
进一步地,一实施例中,第一训练模块20,用于:
针对任一张纹理特征图产生一个随机数;
将随机数与每种数据增强方式的阈值进行比较,以小于随机数的阈值对应的数据增强方式对任一张纹理特征图进行数据增强,得到一种数据增强版本;
针对任一张纹理特征图再产生一个新的随机数;
将新的随机数与每种数据增强方式的阈值进行比较,以小于新的随机数的阈值对应的数据增强方式对任一张纹理特征图进行数据增强,得到另一种数据增强版本。
进一步地,一实施例中,卷积神经网络的每一层均加入了批归一化,第一训练模块20,用于:
骨干网络提取不同的数据增强版本的深度特征,通过全局平均池化层对所述深度特征进行全局平均池化,得到2048维的深度特征。
进一步地,一实施例中,第一训练模块20,用于:
第一层全连接层将2048维的深度特征进行扁平化处理得到512维的深度特征,并经过批归一化和激活函数之后输入512维的特征向量至第二层全连接层;
第二层全连接层将来自第一层全连接层输入的512维的特征向量再次进行扁平化处理得到128维的特征向量,并经过批归一化和激活函数之后输出,得到两种不同数据增强版本对应的输出矩阵O1、O2
进一步地,一实施例中,第二训练模块30,用于:
局部二值模式对输入的训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
数据增强层对每张纹理特征图进行一次数据增强;
第二模型中的骨干网络进行对经过数据增强后的纹理特征图进行特征提取;
分类器对骨干网络提取的特征进行扁平化处理输出分类预测;
利用softmax函数对分类器输出的分类预测进行回归,输出对应类别的概率;
利用新的对比损失函数计算下游任务损失值,通过下游任务损失值计算骨干网络模型参数的梯度,通过反向传播更新骨干网络模型参数,经过预设次数的迭代训练之后得到分类模型。
进一步地,一实施例中,分类模块40,用于:
局部二值模式对输入的测试数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
分类模型对纹理特征图进行预测;
当预测为阳性的概率大于任一类别对应的阈值时,将纹理特征图预测为阳性,采用十字交叉机制预测分类结果。
其中,上述宫颈OCT图像分类装置中各个模块的功能实现与上述宫颈OCT图像分类方法实施例中各步骤相对应,其功能和实现过程在此处不再一一赘述。
第四方面,本发明实施例还提供一种可读存储介质。
本发明可读存储介质上存储有宫颈OCT图像分类程序,其中所述宫颈OCT图像分类程序被处理器执行时,实现如上述的基于自监督纹理对比学习的宫颈OCT图像分类方法的步骤。
其中,宫颈OCT图像分类程序被执行时所实现的方法可参照本发明基于自监督纹理对比学习的宫颈OCT图像分类方法的各个实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于自监督纹理对比学习的宫颈OCT图像分类方法,其特征在于,所述基于自监督纹理对比学习的宫颈OCT图像分类方法包括:
按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;
设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,其中,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;
以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;
通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。
2.如权利要求1所述的基于自监督纹理对比学习的宫颈OCT图像分类方法,其特征在于,所述通过预训练数据集对预训练模型进行训练,得到第一模型的步骤包括:
局部二值模式对输入的预训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
数据增强层对每张纹理特征图进行随机增强两次,得到两种不同的数据增强版本;
骨干网络提取不同的数据增强版本的深度特征,其中利用卷积神经网络作为骨干网络;
多层感知机对深度特征进一步处理,得到两种不同数据增强版本对应的输出矩阵O1、O2
并联O1、O2得到联合矩阵V,计算V和V的转置矩阵VT的乘积得到相似度矩阵,相似度矩阵中每个元素代表两个输出之间的余弦距离,最后经过对比损失函数计算得到预训练损失值;
根据预训练损失值计算预训练网络模型的梯度,通过反向传播更新预训练网络模型,经过预设次数的迭代训练后得到第一模型。
3.如权利要求2所述的基于自监督纹理对比学习的宫颈OCT图像分类方法,其特征在于,所述局部二值模式对输入的预训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图的步骤包括:
局部二值模式对输入的预训练数据集中的宫颈OCT图像进行纹理提取,得到初始纹理图;
将初始纹理图调整为与骨干网络适应的尺寸大小;
对经过尺寸大小调整后的初始纹理图进行归一化处理,得到纹理特征图。
4.如权利要求2所述的基于自监督纹理对比学习的宫颈OCT图像分类方法,其特征在于,所述对每张纹理特征图进行随机增强两次,得到两种不同的数据增强版本的步骤包括:
针对任一张纹理特征图产生一个随机数;
将随机数与每种数据增强方式的阈值进行比较,以小于随机数的阈值对应的数据增强方式对任一张纹理特征图进行数据增强,得到一种数据增强版本;
针对任一张纹理特征图再产生一个新的随机数;
将新的随机数与每种数据增强方式的阈值进行比较,以小于新的随机数的阈值对应的数据增强方式对任一张纹理特征图进行数据增强,得到另一种数据增强版本。
5.如权利要求2所述的基于自监督纹理对比学习的宫颈OCT图像分类方法,其特征在于,卷积神经网络的每一层均加入了批归一化,所述骨干网络提取不同的数据增强版本的深度特征的步骤包括:
骨干网络提取不同的数据增强版本的深度特征,通过全局平均池化层对所述深度特征进行全局平均池化,得到2048维的深度特征。
6.如权利要求5所述的基于自监督纹理对比学习的宫颈OCT图像分类方法,其特征在于,多层感知机层包含两层全连接层,所述多层感知机对深度特征进一步处理,得到两种不同数据增强版本对应的输出矩阵O1、O2的步骤包括:
第一层全连接层将2048维的深度特征进行扁平化处理得到512维的深度特征,并经过批归一化和激活函数之后输入512维的特征向量至第二层全连接层;
第二层全连接层将来自第一层全连接层输入的512维的特征向量再次进行扁平化处理得到128维的特征向量,并经过批归一化和激活函数之后输出,得到两种不同数据增强版本对应的输出矩阵O1、O2
7.如权利要求1所述的基于自监督纹理对比学习的宫颈OCT图像分类方法,其特征在于,所述通过训练数据集对第二模型进行训练,得到分类模型的步骤包括:
局部二值模式对输入的训练数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
数据增强层对每张纹理特征图进行一次数据增强;
第二模型中的骨干网络进行对经过数据增强后的纹理特征图进行特征提取;
分类器对骨干网络提取的特征进行扁平化处理输出分类预测;
利用softmax函数对分类器输出的分类预测进行回归,输出对应类别的概率;
利用新的对比损失函数计算下游任务损失值,通过下游任务损失值计算骨干网络模型参数的梯度,通过反向传播更新骨干网络模型参数,经过预设次数的迭代训练之后得到分类模型。
8.如权利要求1所述的基于自监督纹理对比学习的宫颈OCT图像分类方法,其特征在于,所述通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果的步骤包括:
局部二值模式对输入的测试数据集中的宫颈OCT图像进行纹理提取,对提取结果进行尺寸调整和归一化,得到纹理特征图;
分类模型对纹理特征图进行预测;
当预测为阳性的概率大于任一类别对应的阈值时,将纹理特征图预测为阳性,采用十字交叉机制预测分类结果。
9.一种基于自监督纹理对比学习的宫颈OCT图像分类装置,其特征在于,所述基于自监督纹理对比学习的宫颈OCT图像分类装置包括:
数据划分模块,用于按照第一比例将若干宫颈OCT图像划分为预训练数据集和分类数据集,按照第二比例将分类数据集中的宫颈OCT图像划分为训练数据集和测试数据集;
第一训练模块,用于设置对比损失函数,通过预训练数据集对预训练模型进行训练,得到第一模型,其中,预训练模型包括局部二值模式、数据增强层、骨干网络以及多层感知机四个部分;
第二训练模块,用于以一层全连接层为分类器替换第一模型中的多层感知机,得到第二模型,设置新的对比损失函数,通过训练数据集对第二模型进行训练,得到分类模型;
分类模块,用于通过分类模型对测试数据集中的宫颈OCT图像进行预测,得到分类结果。
10.一种基于自监督纹理对比学习的宫颈OCT图像分类设备,其特征在于,所述宫颈OCT图像分类设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的宫颈OCT图像分类程序,其中所述宫颈OCT图像分类程序被所述处理器执行时,实现如权利要求1至8中任一项所述的基于自监督纹理对比学习的宫颈OCT图像分类方法的步骤。
CN202110778854.2A 2021-07-09 2021-07-09 基于自监督纹理对比学习的宫颈oct图像分类方法及设备 Active CN113627483B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110778854.2A CN113627483B (zh) 2021-07-09 2021-07-09 基于自监督纹理对比学习的宫颈oct图像分类方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110778854.2A CN113627483B (zh) 2021-07-09 2021-07-09 基于自监督纹理对比学习的宫颈oct图像分类方法及设备

Publications (2)

Publication Number Publication Date
CN113627483A CN113627483A (zh) 2021-11-09
CN113627483B true CN113627483B (zh) 2024-02-02

Family

ID=78379338

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110778854.2A Active CN113627483B (zh) 2021-07-09 2021-07-09 基于自监督纹理对比学习的宫颈oct图像分类方法及设备

Country Status (1)

Country Link
CN (1) CN113627483B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114549904B (zh) * 2022-02-25 2023-07-07 北京百度网讯科技有限公司 视觉处理及模型训练方法、设备、存储介质及程序产品
CN117351018B (zh) * 2023-12-05 2024-03-12 北京安吉贝玛健康科技有限公司 一种基于机器视觉的子宫肌瘤检测辅助系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264454A (zh) * 2019-06-19 2019-09-20 四川智动木牛智能科技有限公司 基于多隐藏层条件随机场的宫颈癌组织病理图像诊断方法
CN110766660A (zh) * 2019-09-25 2020-02-07 上海众壹云计算科技有限公司 基于融合深度学习模型的集成电路缺陷图像识别分类系统
CN112381116A (zh) * 2020-10-21 2021-02-19 福州大学 基于对比学习的自监督图像分类方法
CN112418329A (zh) * 2020-11-25 2021-02-26 武汉大学 一种基于多尺度纹理特征融合宫颈oct图像分类方法及系统
KR20210033902A (ko) * 2020-09-07 2021-03-29 두에이아이(주) 인공지능 기반 기술의 의료영상분석을 이용한 자궁경부암 진단방법, 장치 및 소프트웨어 프로그램

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264454A (zh) * 2019-06-19 2019-09-20 四川智动木牛智能科技有限公司 基于多隐藏层条件随机场的宫颈癌组织病理图像诊断方法
CN110766660A (zh) * 2019-09-25 2020-02-07 上海众壹云计算科技有限公司 基于融合深度学习模型的集成电路缺陷图像识别分类系统
KR20210033902A (ko) * 2020-09-07 2021-03-29 두에이아이(주) 인공지능 기반 기술의 의료영상분석을 이용한 자궁경부암 진단방법, 장치 및 소프트웨어 프로그램
CN112381116A (zh) * 2020-10-21 2021-02-19 福州大学 基于对比学习的自监督图像分类方法
CN112418329A (zh) * 2020-11-25 2021-02-26 武汉大学 一种基于多尺度纹理特征融合宫颈oct图像分类方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
卷积神经网络的宫颈细胞图像分类;赵越;曾立波;吴琼水;计算机辅助设计与图形学学报;第30卷(第011期);2049-2054 *

Also Published As

Publication number Publication date
CN113627483A (zh) 2021-11-09

Similar Documents

Publication Publication Date Title
Cui et al. RNN-based longitudinal analysis for diagnosis of Alzheimer’s disease
Krishna et al. Computer aided abnormality detection for kidney on FPGA based IoT enabled portable ultrasound imaging system
CN107133638B (zh) 基于两分类器的多参数mri前列腺癌cad方法及系统
Rahman et al. A new method for lung nodule detection using deep neural networks for CT images
CN113627483B (zh) 基于自监督纹理对比学习的宫颈oct图像分类方法及设备
CN112070119A (zh) 超声切面图像质量控制方法、装置和计算机设备
CN110516759B (zh) 一种基于机器学习的软组织肉瘤转移风险预测系统
Chattopadhyay et al. MTRRE-Net: A deep learning model for detection of breast cancer from histopathological images
Arif et al. Automated detection of nonmelanoma skin cancer based on deep convolutional neural network
Shi et al. Automatic detection of pulmonary nodules in CT images based on 3D Res-I network
Zhong et al. Dilated and soft attention‐guided convolutional neural network for breast cancer histology images classification
Junyue et al. Breast cancer diagnosis using hybrid AlexNet-ELM and chimp optimization algorithm evolved by Nelder-mead simplex approach
Sabitha et al. A dual stage AlexNet-HHO-DrpXLM archetype for an effective feature extraction, classification and prediction of liver cancer based on histopathology images
Xing et al. ZooME: Efficient melanoma detection using zoom-in attention and metadata embedding deep neural network
Kahaki et al. Weakly supervised deep learning for predicting the response to hormonal treatment of women with atypical endometrial hyperplasia: a feasibility study
Senthil et al. Ovarian cancer diagnosis using pretrained mask CNN-based segmentation with VGG-19 architecture
Roy Medhi Lung Cancer Classification from Histologic Images using Capsule Networks
Şengül et al. Performance Evaluation of Basic Capsule Network Architecture in Classification of Biomedical Images
Sajiv et al. Predicting Breast Cancer Risk from Histopathology Images using Hybrid Deep Learning Classifier
Altamimi et al. An improved skin lesion detection solution using multi-step preprocessing features and NASNet transfer learning model
Hassan et al. Developing a Novel Methodology by Integrating Deep Learning and HMM for Segmentation of Retinal Blood Vessels in Fundus Images
Zhong et al. Hybrid Attention Mechanism Guided Convolutional Neural Network for Breast Cancer Histology Images Classification
Gu et al. Research on Classification Method of Medical Ultrasound Image Processing Based on Neural Network
Ahmed et al. Classification of Breast Tumor Using Radon Cumulative Distribution Transform Nearest Subspace Classifier
CN115359060B (zh) 一种肺炎ct影像的病灶实例分割方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant