CN114882301A - 基于感兴趣区域的自监督学习医学图像识别方法及装置 - Google Patents

基于感兴趣区域的自监督学习医学图像识别方法及装置 Download PDF

Info

Publication number
CN114882301A
CN114882301A CN202210815270.2A CN202210815270A CN114882301A CN 114882301 A CN114882301 A CN 114882301A CN 202210815270 A CN202210815270 A CN 202210815270A CN 114882301 A CN114882301 A CN 114882301A
Authority
CN
China
Prior art keywords
medical image
neural network
network model
deep neural
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210815270.2A
Other languages
English (en)
Other versions
CN114882301B (zh
Inventor
余晓瑞
王书崎
杜奇艳
胡俊杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202210815270.2A priority Critical patent/CN114882301B/zh
Publication of CN114882301A publication Critical patent/CN114882301A/zh
Application granted granted Critical
Publication of CN114882301B publication Critical patent/CN114882301B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于感兴趣区域的自监督学习医学图像识别方法及装置,涉及医学图像中病灶的识别,其目的在于解决现有技术中存在的现有网络模型可解释性较差存在漏诊、以及基于一个网络模型无法同时实现分类与定位的问题。根据推理结果定位感兴趣区域,并生成小外接矩形,再生成大小随机的掩码,并作用至输入图像中,后再重复输入深度神经网络模型,通过重复定位、重复掩码以及重复深度神经网络模型识别,可减轻模型训练对有标签数据集的依赖,识别定位出医学图像中两个、三个甚至是更多的感兴趣区域,有效避免漏诊的情形出现,通过引导模型识别病灶的位置以及类别,减轻模型在真实应用场景中可能出现的漏诊情况。

Description

基于感兴趣区域的自监督学习医学图像识别方法及装置
技术领域
本发明人工智能医学技术领域,涉及基于感兴趣区域的自监督学习医学图像识别方法及装置,更具体的是涉及一种基于感兴趣区域的自监督学习的黄斑水肿病变、视网膜病变等医学图像中病灶的分类与定位。
背景技术
基于深度神经网络的人工智能方法已在医学图像识别领域发挥着重要作用,其通过端对端的学习输入(医学图像)与输出(诊断结果)之间的关系,在众多疾病识别任务中取得了良好的分类效果,如黄斑水肿病变、视网膜病变等。
图1展示了一种典型的基于深度神经网络的黄斑水肿病变分类模型,其用于识别医学图像中是否存在黄斑水肿病变,从而完成对医学图像的分类。任务的输入数据为光学相干断层扫描(Optical Coherence Tomography, OCT)图像,任务输出共包括四个类别:1.正常、2. 脉络膜新生血管(Choroidal Neovascularization, CNV)、3. 糖尿病性黄斑水肿(Diabetic Macular Edema, DME)、4. 玻璃体疣(Drusen),其中DME的模型预测概率最高(0.6)。图中的疾病分类模型通常由深度神经网络实现,其中灰色的方块代表模型从输入的OCT图像中提取得到的抽象特征,全局池化沿着特征通道的维度求平均,实现了将特征由三维矩阵变为一维向量,并根据该一维向量得到模型的预测结果。
申请号为2021112638282的发明专利申请就公开了一种胃镜图像智能目标检测系统及方法,其图像获取模块用于获取待检测胃镜图像;目标检测模块用于将待检测胃镜图像输出到目标检测模型中以获取病灶区域以及所述病灶区域对应 的病灶类别;所述目标检测模型的训练过程为:确定多张第一胃镜图像;确定每张第一胃镜图像对应的标签;所述标签包括病灶类别和病灶区域;将第一胃镜图像以及所述第一胃镜图像对应的标签输入到卷积神经网络中以训练所述卷积神经网络,进而得到目标检测模型。本发明通过将目标检测方法与胃镜图像结合得到目标检测模型,以实现对胃镜图像中病灶区域以及病灶区域对应的病灶类型的智能检测,降低人为主观造成的诊断误差。
申请号为2017108886512的发明专利公开了一种用于标注医学图像的方法和装置,其通过获取至少一个待标注医学图像;为待标注医学图像标注分类信息,其中,分类信息包括医学图像对应的诊断结果的类别和诊断结果的等级;利用预先训练的病灶区域检测模型处理待标注医学图像,在待标注医学图像中框选出病灶区域、且标注出病灶区域的病灶类型,以使待标注医学图像标注出病灶区域和病灶区域的病灶类型;从已框选出病灶区域的待标注医学图像中分割出被框选出的病灶区域,形成待标注医学图像分割图像,以使待标注医学图像标注出分割图像。该实施方式实现了降低了标注医学图像的人力和时间成本。
申请号为2020108177607的发明专利还公开了一种基于深度学习的眼科超声自动筛查方法及系统,其包括:模型训练阶段:收集历史眼科超声图片和视频,对其进行训练得到分割模型和分类模型;检测阶段:S1、获取待检测的眼科超声图像;S2、利用训练好分割模型对待检测眼科超声图像进行人工智能网络分割,并利用分类模型对分割后的眼科超声图像进行识别,识别得到病灶类别,同时提示病灶位置;S3、根据所识别病灶评估相应风险评级;S4、根据风险等级,进行下一步诊疗提示。本发明可以减少医生工作量,提高疾病的及时诊断率,同时因为可以显示出具体的病灶位置,可用于对新手医生进行辅助培训。
以上这种端对端(输入图像至输出类别)的学习方式在医学图像识别任务中虽然得到了广泛应用,然而模型训练过程中存在两大痛点:1、模型训练依赖大量有标签数据集,然而在医学图像分析任务中获取患者的医学图像通常比较困难,此外人工标注依赖医生的领域经验知识,标注过程耗时耗力;2、模型可解释性较差,模型只要识别到感兴趣区域后,很难再进一步识别其他区域是否还有其他感兴趣区域或者其他不太容易识别到的感兴趣区域,从而难以有效应对模型在真实应用场景中出现的漏诊情况,具体如图2所示。在图2中,可根据模型的预测结果反向定位至模型对于输入的感兴趣区域(Region of interest,ROI),并以热图的形式展现出来,其中类别激活图(Class Activation Mapping, CAM)是一种有代表性的感兴趣区域识别算法,图2(a)展示了输入给模型的原始图像,该图包含复杂的病灶特征,分布在图像中央;图2(b)展示了模型所识别出的感兴趣区域,其中白色区域里面的深色代表模型认为病灶疑似程度最高的区域,外层的白色代表疑似次之的区域;图2(c)在白色区域左侧的深色方框展示了模型所遗漏掉的病灶区域,从图2(c)中可以看出,模型仅识别出了病灶特征最明显的区域,而忽略了同样具备诊断价值的次临床特征,从而造成漏诊。此外,上述这些应用中,一方面是部分方法中的网络模型仅能实现图像的分类,无法对图像的分类区域进行定位,无法输出位置信息;另一方面部分方法虽然能够同时实现分类、定位,但是其是分别通过两个网络模型实现的,一个网络模型用于分类,另一个网络模型用于定位,无法基于同一个网络模型通过不同的训练方法使其同时具备分类与定位的功能。
发明内容
本发明的目的在于:为了解决现有技术中存在的现有网络模型可解释性较差存在漏诊、以及基于一个网络模型无法同时实现分类与定位的问题,本申请提出了一种基于感兴趣区域的自监督学习医学图像识别方法及装置。
本发明为了实现上述目的具体采用以下技术方案:
一种基于感兴趣区域的自监督学习医学图像识别方法,包括深度神经网络模型,深度神经网络模型的训练方法为:
步骤S1,将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息;
步骤S2,根据步骤S1得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像;
步骤S3,将步骤S2得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合步骤S2生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差;
步骤S4,根据步骤S3得到的位置误差、类别误差,更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。
作为优选地,步骤S1中,深度神经网络模型的卷积层在进行前向推理时,前向计算采用的公式具体为:
Figure 523514DEST_PATH_IMAGE001
其中,
Figure 182291DEST_PATH_IMAGE002
代表第
Figure 428465DEST_PATH_IMAGE003
层与第
Figure 267108DEST_PATH_IMAGE004
层之间的卷积核,
Figure 751179DEST_PATH_IMAGE005
Figure 813813DEST_PATH_IMAGE006
代表卷积核中第
Figure 780238DEST_PATH_IMAGE005
行第
Figure 750468DEST_PATH_IMAGE006
列位置的元素;卷积核是一个可学习参数矩阵,矩阵的宽和高分别为
Figure 292308DEST_PATH_IMAGE007
Figure 322581DEST_PATH_IMAGE008
Figure 779232DEST_PATH_IMAGE009
代表第
Figure 677787DEST_PATH_IMAGE010
层的输出,
Figure 900565DEST_PATH_IMAGE011
代表非线性激活函数,n、m代表卷积输出的第n行m列位置的激活值。
作为优选地,步骤S1中,深度神经网络模型的最后一层为全连接层,全连接层在进行前向推理时,前向计算采用的公式具体为:
Figure 101739DEST_PATH_IMAGE012
其中,
Figure 154008DEST_PATH_IMAGE013
代表第
Figure 262779DEST_PATH_IMAGE004
层的
Figure 716894DEST_PATH_IMAGE006
神经元与第
Figure 121593DEST_PATH_IMAGE003
层的
Figure 661158DEST_PATH_IMAGE005
神经元之间的连接权,
Figure 511303DEST_PATH_IMAGE014
代表第
Figure 210137DEST_PATH_IMAGE003
层的
Figure 806245DEST_PATH_IMAGE005
神经元的输出,
Figure 161003DEST_PATH_IMAGE015
代表第
Figure 706516DEST_PATH_IMAGE003
层所包含的神经元的数目,
Figure 696076DEST_PATH_IMAGE016
代表非线性激活函数。
作为优选地,步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2-1,获得深度神经网络模型对于输出的预测类别
Figure 328395DEST_PATH_IMAGE017
,预测类别c代表输出层中的第c个神经元,其激活值在输出层中最大:
Figure 842553DEST_PATH_IMAGE018
其中,
Figure 831238DEST_PATH_IMAGE019
为步骤S1最后的输出;
步骤S2-2,将第
Figure 848873DEST_PATH_IMAGE020
个神经元连接的连接权矩阵
Figure 904291DEST_PATH_IMAGE021
与最后一个卷积层的特征
Figure 109007DEST_PATH_IMAGE022
加权求和,并对求和后的特征进行上采样:
Figure 776749DEST_PATH_IMAGE023
其中,
Figure 475321DEST_PATH_IMAGE024
即代表对于输入的医学图像的感兴趣区域,它的维度与输入图像的维度一致,
Figure 593319DEST_PATH_IMAGE025
表示最后一个卷积层的通道数目,
Figure 816490DEST_PATH_IMAGE026
表示K的游标,用于遍历从1到K,
Figure 350240DEST_PATH_IMAGE020
表示最后一层的第
Figure 732679DEST_PATH_IMAGE020
个神经元,
Figure 631365DEST_PATH_IMAGE027
表示第
Figure 905614DEST_PATH_IMAGE020
个神经元与最后一个卷积层的连接权矩阵,
Figure 102109DEST_PATH_IMAGE028
表示最后一个卷积层的输出,
Figure 73476DEST_PATH_IMAGE029
表示上采样函数。
作为优选地,步骤S2中,生成赋有掩码的医学图像的方法为:
根据识别出的感兴趣区域生成热图,根据热图识别出最小外接矩形,在最小外接矩形内生成大小不固定的随机掩码,并将输入图像对应位置的元素设置为0,生成并作用感兴趣区域引导的赋有掩码的医学图像。
作为优选地,在步骤S3得到预测的类别信息后,重复步骤S2、S3两次或三次,获取医学图像中更多的感兴趣区域。
一种基于感兴趣区域的自监督学习医学图像识别装置,包括模型训练模块,模型训练模块包括:
前向推理预测模块,用于将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息;
掩码生成模块,用于根据前向推理预测模块得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像;
误差生成模块,用于将掩码生成模块得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合掩码生成模块生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差;
参数更新模块,用于根据误差生成模块得到的位置误差、类别误差更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述方法的步骤。
一种计算机可读存储介质,其特征在于:存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行上述方法的步骤。
本发明的有益效果如下:
1.本发明中,针对一张待分析的医学图像,根据推理结果定位感兴趣区域,并生成该区域的最小外接矩形,再根据以该最小外接矩形为参考,生成大小随机的掩码,并作用至输入图像中,以达到增强数据多样性的目的,减轻模型训练对有标签数据集的依赖。
2.本发明中,根据推理结果定位感兴趣区域进行掩码后再重复输入深度神经网络模型,通过重复定位、重复掩码以及重复深度神经网络模型识别,可以识别定位出医学图像中两个、三个甚至是更多的感兴趣区域,有效避免漏诊的情形出现。
3.本发明中,通过将生成的最小外接矩形作为伪标签,结合医学图像本身具备的真实标签,二者共同作为标签训练深度神经网络,最小外接矩形提供了位置信息,用于训练模型准确定位至病灶区域;真实标签提供了病灶的类别信息,通过引导模型识别病灶的位置以及类别,能够获取医学图像中病灶的具体位置以及类别,减轻模型在真实应用场景中可能出现的漏诊情况。
附图说明
图1是现有技术中黄斑水肿病变分类模型的结构示意图;
图2是现有技术中入原始图像与模型对于输入的感兴趣区域热图
图3是本发明的流程示意图。
具体实施方式
实施例1
本实施例提供一种基于感兴趣区域的自监督学习医学图像识别方法,用于对医学图像中病灶的识别,尤其是医学图像中黄斑水肿病变、视网膜病变等病灶的分类与位置。其具体包括以下步骤:
步骤一,获取样本数据
获取用于模型训练的样本数据,该样本数据取自于医院的OCT医学图像,且每组OCT医学图像均由医学专家进行了黄斑水肿病变的病灶的标注,形成对应的真实分类标签。
步骤二,搭建模型
搭建深度神经网络模型,深度神经网络模型可采用现有的网络模型即可,且该深度神经网络模型可对医学图像进行分类、识别,得到病灶的类别信息与位置信息。根据实际需要,可自行选择Faster RCNN网络模型。
步骤三,训练模型
对步骤二搭建的深度神经网络模型进行训练。深度神经网络模型的具体训练方法,是本申请的核心创新之一,其具体训练方法如图3所示:
该深度神经网络模型的训练,具体包括以下四个阶段,分别是:
步骤S1,将步骤一获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息。具体为:
针对医学图像分类任务,本申请的第一阶段即是将医学图像输入至深度神经网络模型,获得模型对于医学图像的分类结果,即模型的推理,以供第二阶段生成并作用感兴趣区域。本实施例中,以卷积神经网络为例,深度神经网络模型由卷积层、池化层以及全连接层构成,其中卷积层与全连接层包含可学习参数,池化层不包含可学习参数。前向计算采用的公式具体为:
Figure 877484DEST_PATH_IMAGE001
其中,
Figure 901678DEST_PATH_IMAGE002
代表第
Figure 931558DEST_PATH_IMAGE003
层与第
Figure 524476DEST_PATH_IMAGE004
层之间的卷积核,
Figure 827281DEST_PATH_IMAGE005
Figure 512340DEST_PATH_IMAGE006
代表卷积核中第
Figure 253900DEST_PATH_IMAGE005
行第
Figure 75226DEST_PATH_IMAGE006
列位置的元素;卷积核是一个可学习参数矩阵,矩阵的宽和高分别为
Figure 611249DEST_PATH_IMAGE007
Figure 518025DEST_PATH_IMAGE008
Figure 257353DEST_PATH_IMAGE009
代表第
Figure 323398DEST_PATH_IMAGE010
层的输出,
Figure 640109DEST_PATH_IMAGE011
代表非线性激活函数,n、m代表卷积输出的第n行m列位置的激活值。以上公式的含义是卷积核
Figure 158815DEST_PATH_IMAGE002
与第
Figure 851965DEST_PATH_IMAGE003
层的输出
Figure 38096DEST_PATH_IMAGE009
对应位置元素相乘并求和,经过激活函数作用后,得到第
Figure 791288DEST_PATH_IMAGE004
层的输出
Figure 298755DEST_PATH_IMAGE030
步骤S1中,深度神经网络模型的最后一层为全连接层,全连接层在进行前向推理时,前向计算采用的公式具体为:
Figure 530016DEST_PATH_IMAGE012
其中,
Figure 305074DEST_PATH_IMAGE013
代表第
Figure 557064DEST_PATH_IMAGE004
层的
Figure 519204DEST_PATH_IMAGE006
神经元与第
Figure 554156DEST_PATH_IMAGE003
层的
Figure 682255DEST_PATH_IMAGE005
神经元之间的连接权,
Figure 777250DEST_PATH_IMAGE014
代表第
Figure 757845DEST_PATH_IMAGE003
层的
Figure 330909DEST_PATH_IMAGE005
神经元的输出,
Figure 80559DEST_PATH_IMAGE015
代表第
Figure 143193DEST_PATH_IMAGE003
层所包含的神经元的数目,
Figure 548766DEST_PATH_IMAGE016
代表非线性激活函数。可以看出,卷积操作产生的二维输出(如
Figure 754882DEST_PATH_IMAGE031
),全连接得到的是一维的输出,它的输出即代表模型对于输入的最终预测结果。
步骤S2,根据步骤S1得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像。具体为:
在得到步骤S1的预测结果后,第二阶段即是模型对于输入的感兴趣区域以及相应的最小外接矩形。深度神经网络模型最后的全连接层中的连接权矩阵
Figure 93459DEST_PATH_IMAGE032
对最后一个卷积层的输出
Figure 858153DEST_PATH_IMAGE033
加权求和,并上采样至输入图像的大小,即可得到模型对于输入的感兴趣区域。
首先,步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2-1,获得深度神经网络模型对于输出的预测类别c,预测类别c代表输出层中的第c个神经元,其激活值在输出层中最大:
Figure 547760DEST_PATH_IMAGE018
其中,
Figure 462627DEST_PATH_IMAGE019
为步骤S1最后的输出;
步骤S2-2,将第
Figure 858973DEST_PATH_IMAGE020
个神经元连接的连接权矩阵
Figure 89841DEST_PATH_IMAGE021
与最后一个卷积层的特征
Figure 142110DEST_PATH_IMAGE022
加权求和,并对求和后的特征进行上采样:
Figure 985301DEST_PATH_IMAGE023
其中,
Figure 439417DEST_PATH_IMAGE024
即代表对于输入的医学图像的感兴趣区域,它的维度与输入图像的维度一致,
Figure 342651DEST_PATH_IMAGE025
表示最后一个卷积层的通道数目,
Figure 882216DEST_PATH_IMAGE026
表示K的游标,用于遍历从1到K,
Figure 529098DEST_PATH_IMAGE020
表示最后一层的第
Figure 837720DEST_PATH_IMAGE020
个神经元,
Figure 413320DEST_PATH_IMAGE027
表示第
Figure 174603DEST_PATH_IMAGE020
个神经元与最后一个卷积层的连接权矩阵,
Figure 625175DEST_PATH_IMAGE028
表示最后一个卷积层的输出,
Figure 788304DEST_PATH_IMAGE029
表示上采样函数。图3中的第二阶段右下方的热图即代表识别出的感兴趣区域。
此处需要说明的是,根据习惯,网络中间层通常用小写的
Figure 767761DEST_PATH_IMAGE034
代指(即layer),网络最后一层通常用大写的L代指;所以,步骤S1、S2中分别在不同网络层中使用
Figure 281919DEST_PATH_IMAGE034
、L来表示。
根据识别出的感兴趣区域生成热图,根据热图识别出最小外接矩形,在最小外接矩形内生成大小不固定的随机掩码,并将输入图像对应位置的元素设置为0,生成并作用感兴趣区域引导的赋有掩码的医学图像。
步骤S3,将步骤S2得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合步骤S2生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差。具体为:
该阶段采用自监督学习同时预测病灶的类别与位置。自监督学习的目的旨在生成伪标签并预训练模型,通过预训练的方式,提升模型在下游任务中的性能表现。本步骤以上一步赋有了随机掩码的医学图像作为输入,并利用上一步生成的最小外接矩形作为病灶位置的伪标签,结合医学图像本身已具备的病灶类别真实标签,二者同时训练模型。通过引入病灶位置预测,为模型提供更强的监督学习信号,以减轻模型在真实场景中的漏诊情况。
步骤S4,根据步骤S3得到的位置误差、类别误差,更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。具体为:
深度神经网络模型将同时输出病灶的位置以及类别,与病灶位置的伪标签以及病灶类别的真实标签进行比较,产生类别误差与位置误差,根据该类别误差与位置误差即可利用梯度下降算法更新模型参数;重复训练深度神经网络模型,直至深度神经网络模型收敛,完成模型训练。
此外,在步骤S3得到预测的类别信息后,重复步骤S2、S3两次或三次,获取医学图像中更多的感兴趣区域。
步骤四,实时检测、识别
将实时获取的OCT医学图像输入训练成熟的深度神经网络中,输出医学图像的结果,其中包括病灶的位置信息以及分类信息。即:给定一张待识别的医学图像,深度神经网络不仅将输出病灶的类别,而且可定位至病灶的位置,具备非常强的实用性。
实施例2
本实施例提供一种基于感兴趣区域的自监督学习医学图像识别装置,用于对医学图像中病灶的识别,尤其是医学图像中黄斑水肿病变、视网膜病变等病灶的分类与位置。其具体包括:
样本数据获取模块,用于获取用于模型训练的样本数据,该样本数据取自于医院的OCT医学图像,且每组OCT医学图像均由医学专家进行了黄斑水肿病变的病灶的标注,形成对应的真实分类标签。
模型搭建模块,用于搭建深度神经网络模型,深度神经网络模型可采用现有的网络模型即可,且该深度神经网络模型可对医学图像进行分类、识别,得到病灶的类别信息与位置信息。根据实际需要,可自行选择Faster RCNN网络模型。
模型训练模块,用于对模型搭建模块搭建的深度神经网络模型进行训练。深度神经网络模型的具体训练方法,是本申请的核心创新之一,其具体训练方法如图3所示:
该模型训练模块包括:
前向推理预测模块,用于将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息。具体为:
针对医学图像分类任务,本申请的第一阶段即是将医学图像输入至深度神经网络模型,获得模型对于医学图像的分类结果,即模型的推理,以供第二阶段生成并作用感兴趣区域。本实施例中,以卷积神经网络为例,深度神经网络模型由卷积层、池化层以及全连接层构成,其中卷积层与全连接层包含可学习参数,池化层不包含可学习参数。卷积层的前向计算采用的公式具体为:
Figure 270603DEST_PATH_IMAGE001
其中,
Figure 288238DEST_PATH_IMAGE002
代表第
Figure 468290DEST_PATH_IMAGE003
层与第
Figure 204165DEST_PATH_IMAGE004
层之间的卷积核,
Figure 730961DEST_PATH_IMAGE005
Figure 868682DEST_PATH_IMAGE006
代表卷积核中第
Figure 393204DEST_PATH_IMAGE005
行第
Figure 475429DEST_PATH_IMAGE006
列位置的元素;卷积核是一个可学习参数矩阵,矩阵的宽和高分别为
Figure 946862DEST_PATH_IMAGE007
Figure 63723DEST_PATH_IMAGE008
Figure 696829DEST_PATH_IMAGE009
代表第
Figure 767816DEST_PATH_IMAGE010
层的输出,
Figure 777360DEST_PATH_IMAGE011
代表非线性激活函数,n、m代表卷积输出的第n行m列位置的激活值。以上公式的含义是卷积核
Figure 748727DEST_PATH_IMAGE002
与第
Figure 818314DEST_PATH_IMAGE003
层的输出
Figure 875132DEST_PATH_IMAGE009
对应位置元素相乘并求和,经过激活函数作用后,得到第
Figure 485105DEST_PATH_IMAGE004
层的输出
Figure 451924DEST_PATH_IMAGE030
该深度神经网络模型的最后一层为全连接层,全连接层在进行前向推理时,前向计算采用的公式具体为:
Figure 551467DEST_PATH_IMAGE012
其中,
Figure 236526DEST_PATH_IMAGE013
代表第
Figure 211042DEST_PATH_IMAGE004
层的
Figure 32367DEST_PATH_IMAGE006
神经元与第
Figure 302812DEST_PATH_IMAGE003
层的
Figure 209588DEST_PATH_IMAGE005
神经元之间的连接权,
Figure 223680DEST_PATH_IMAGE014
代表第
Figure 899512DEST_PATH_IMAGE003
层的
Figure 606437DEST_PATH_IMAGE005
神经元的输出,
Figure 509DEST_PATH_IMAGE015
代表第
Figure 319757DEST_PATH_IMAGE003
层所包含的神经元的数目,
Figure 912413DEST_PATH_IMAGE016
代表非线性激活函数。可以看出,卷积操作产生的二维输出(如
Figure 665605DEST_PATH_IMAGE031
),全连接得到的是一维的输出,它的输出即代表模型对于输入的最终预测结果。
掩码生成模块,用于根据前向推理预测模块得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像。具体为:
在得到步骤S1的预测结果后,第二阶段即是模型对于输入的感兴趣区域以及相应的最小外接矩形。深度神经网络模型最后的全连接层中的连接权矩阵
Figure 406028DEST_PATH_IMAGE032
对最后一个卷积层的输出
Figure 902869DEST_PATH_IMAGE033
加权求和,并上采样至输入图像的大小,即可得到模型对于输入的感兴趣区域。
首先,步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2-1,获得深度神经网络模型对于输出的预测类别c,预测类别c代表输出层中的第c个神经元,其激活值在输出层中最大:
Figure 677926DEST_PATH_IMAGE018
其中,
Figure 336441DEST_PATH_IMAGE019
为步骤S1最后的输出;
步骤S2-2,将第
Figure 829739DEST_PATH_IMAGE020
个神经元连接的连接权矩阵
Figure 864691DEST_PATH_IMAGE021
与最后一个卷积层的特征
Figure 992791DEST_PATH_IMAGE022
加权求和,并对求和后的特征进行上采样:
Figure 87786DEST_PATH_IMAGE023
其中,
Figure 474905DEST_PATH_IMAGE024
即代表对于输入的医学图像的感兴趣区域,它的维度与输入图像的维度一致,
Figure 438182DEST_PATH_IMAGE025
表示最后一个卷积层的通道数目,
Figure 63198DEST_PATH_IMAGE026
表示K的游标,用于遍历从1到K,
Figure 453728DEST_PATH_IMAGE020
表示最后一层的第
Figure 531406DEST_PATH_IMAGE020
个神经元,
Figure 32794DEST_PATH_IMAGE027
表示第
Figure 512317DEST_PATH_IMAGE020
个神经元与最后一个卷积层的连接权矩阵,
Figure 309634DEST_PATH_IMAGE028
表示最后一个卷积层的输出,
Figure 874607DEST_PATH_IMAGE029
表示上采样函数。图3中的第二阶段右下方的热图即代表识别出的感兴趣区域。
根据识别出的感兴趣区域生成热图,根据热图识别出最小外接矩形,在最小外接矩形内生成大小不固定的随机掩码,并将输入图像对应位置的元素设置为0,生成并作用感兴趣区域引导的赋有掩码的医学图像。
误差生成模块,用于将掩码生成模块得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合掩码生成模块生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差。具体为:
该阶段采用自监督学习同时预测病灶的类别与位置。自监督学习的目的旨在生成伪标签并预训练模型,通过预训练的方式,提升模型在下游任务中的性能表现。本步骤以上一步赋有了随机掩码的医学图像作为输入,并利用上一步生成的最小外接矩形作为病灶位置的伪标签,结合医学图像本身已具备的病灶类别真实标签,二者同时训练模型。通过引入病灶位置预测,为模型提供更强的监督学习信号,以减轻模型在真实场景中的漏诊情况。
参数更新模块,用于根据误差生成模块得到的位置误差、类别误差更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。具体为:
深度神经网络模型将同时输出病灶的位置以及类别,与病灶位置的伪标签以及病灶类别的真实标签进行比较,产生类别误差与位置误差,根据该类别误差与位置误差即可利用梯度下降算法更新模型参数;重复训练深度神经网络模型,直至深度神经网络模型收敛,完成模型训练。
此外,在步骤S3得到预测的类别信息后,重复步骤S2、S3两次或三次,获取医学图像中更多的感兴趣区域。
实时检测模块,用于将实时获取的OCT医学图像输入训练成熟的深度神经网络中,输出医学图像的结果,其中包括病灶的位置信息以及分类信息。即:给定一张待识别的医学图像,深度神经网络不仅将输出病灶的类别,而且可定位至病灶的位置,具备非常强的实用性。
实施例3
本实施例还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述基于感兴趣区域的自监督学习医学图像识别方法的步骤。
其中,所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或D界面显示存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器可以是所述计算机设备的内部存储单元,例如该计算机设备的硬盘或内存。在另一些实施例中,所述存储器也可以是所述计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器还可以既包括所述计算机设备的内部存储单元也包括其外部存储设备。本实施例中,所述存储器常用于存储安装于所述计算机设备的操作系统和各类应用软件,例如运行所述基于感兴趣区域的自监督学习医学图像识别方法的的程序代码等。此外,所述存储器还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器通常用于控制所述计算机设备的总体操作。本实施例中,所述处理器用于运行所述存储器中存储的程序代码或者处理数据,例如运行所述基于感兴趣区域的自监督学习医学图像识别方法的程序代码。
实施例4
本实施例还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述基于感兴趣区域的自监督学习医学图像识别方法的步骤。
其中,所述计算机可读存储介质存储有界面显示程序,所述界面显示程序可被至少一个处理器执行,以使所述至少一个处理器执行基于感兴趣区域的自监督学习医学图像识别方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器或者网络设备等)执行本申请各个实施例所述的方法。

Claims (7)

1.一种基于感兴趣区域的自监督学习医学图像识别方法,包括深度神经网络模型,其特征在于,深度神经网络模型的训练方法为:
步骤S1,将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息;
步骤S2,根据步骤S1得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像;
步骤S3,将步骤S2得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合步骤S2生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差;
步骤S4,根据步骤S3得到位置误差、类别误差更新深度神经网络模型的参数,重复训练深度神经网络模型,直至深度神经网络模型收敛。
2.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:步骤S1中,深度神经网络模型的卷积层在进行前向推理时,前向计算采用的公式具体为:
Figure 791027DEST_PATH_IMAGE001
其中,
Figure 177009DEST_PATH_IMAGE002
代表第
Figure 550222DEST_PATH_IMAGE003
层与第
Figure 414273DEST_PATH_IMAGE004
层之间的卷积核,
Figure 320655DEST_PATH_IMAGE005
Figure 611959DEST_PATH_IMAGE006
代表卷积核中第
Figure 472468DEST_PATH_IMAGE005
行第
Figure 140210DEST_PATH_IMAGE006
列位置的元素;卷积核是一个可学习参数矩阵,矩阵的宽和高分别为
Figure 402564DEST_PATH_IMAGE007
Figure 130348DEST_PATH_IMAGE008
Figure 776356DEST_PATH_IMAGE009
代表第
Figure 982209DEST_PATH_IMAGE010
层的输出,
Figure 99070DEST_PATH_IMAGE011
代表非线性激活函数,n、m代表卷积输出的第n行m列位置的激活值。
3.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:步骤S1中,深度神经网络模型的最后一层为全连接层,全连接层在进行前向推理时,前向计算采用的公式具体为:
Figure 997755DEST_PATH_IMAGE012
其中,
Figure 832856DEST_PATH_IMAGE013
代表第
Figure 842401DEST_PATH_IMAGE004
层的
Figure 79347DEST_PATH_IMAGE006
神经元与第
Figure 617776DEST_PATH_IMAGE003
层的
Figure 704287DEST_PATH_IMAGE005
神经元之间的连接权,
Figure 251943DEST_PATH_IMAGE014
代表第
Figure 343396DEST_PATH_IMAGE003
层的
Figure 583884DEST_PATH_IMAGE005
神经元的输出,
Figure 127998DEST_PATH_IMAGE015
代表第
Figure 807241DEST_PATH_IMAGE003
层所包含的神经元的数目,
Figure 628566DEST_PATH_IMAGE016
代表非线性激活函数。
4.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:步骤S2中,在找出感兴趣区域时,其计算步骤为:
步骤S2-1,获得深度神经网络模型对于输出的预测类别c,预测类别c代表输出层中的第c个神经元,其激活值在输出层中最大:
Figure 666055DEST_PATH_IMAGE017
其中,
Figure 572831DEST_PATH_IMAGE018
为步骤S1最后的输出;
步骤S2-2,将第
Figure 649240DEST_PATH_IMAGE019
个神经元连接的连接权矩阵
Figure 590651DEST_PATH_IMAGE020
与最后一个卷积层的特征
Figure 297576DEST_PATH_IMAGE021
加权求和,并对求和后的特征进行上采样:
Figure 691649DEST_PATH_IMAGE022
其中,
Figure 555437DEST_PATH_IMAGE023
即代表对于输入的医学图像的感兴趣区域,它的维度与输入图像的维度一致,
Figure 302420DEST_PATH_IMAGE024
表示最后一个卷积层的通道数目,
Figure 649088DEST_PATH_IMAGE025
表示K的游标,用于遍历从1到K,
Figure 77926DEST_PATH_IMAGE019
表示最后一层的第
Figure 637083DEST_PATH_IMAGE019
个神经元,
Figure 412141DEST_PATH_IMAGE026
表示第
Figure 70656DEST_PATH_IMAGE019
个神经元与最后一个卷积层的连接权矩阵,
Figure 328068DEST_PATH_IMAGE027
表示最后一个卷积层的输出,
Figure 956496DEST_PATH_IMAGE028
表示上采样函数。
5.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:步骤S2中,生成赋有掩码的医学图像的方法为:
根据识别出的感兴趣区域生成热图,根据热图识别出最小外接矩形,在最小外接矩形内生成大小不固定的随机掩码,并将输入图像对应位置的元素设置为0,生成并作用感兴趣区域引导的赋有掩码的医学图像。
6.如权利要求1所述的一种基于感兴趣区域的自监督学习医学图像识别方法,其特征在于:在步骤S3得到预测的类别信息后,重复步骤S2、S3两次或三次,获取医学图像中更多的感兴趣区域。
7.一种基于感兴趣区域的自监督学习医学图像识别装置,包括模型训练模块,其特征在于;模型训练模块包括:
前向推理预测模块,用于将获取的医学图像作为样本输入深度神经网络模型,并基于前向推理得到病灶的类别信息;
掩码生成模块,用于根据前向推理预测模块得到的类别信息,找出感兴趣区域并生成相应的最小外接矩形,在最小外接矩形的引导下生成随机掩码,并将掩码作用于对应的医学图像,得到赋有掩码的医学图像;
误差生成模块,用于将掩码生成模块得到的赋有掩码的医学图像作为样本输入深度神经网络模型,得到预测的类别信息、位置信息,并结合掩码生成模块生成的最小外接矩形作为伪标签、以及医学图像的真实分类标签,预测出病灶的位置误差、类别误差;
参数更新模块,用于根据误差生成模块得到的位置误差、类别误差更新深度神经网络模型的参数;重复训练深度神经网络模型,直至深度神经网络模型收敛。
CN202210815270.2A 2022-07-11 2022-07-11 基于感兴趣区域的自监督学习医学图像识别方法及装置 Active CN114882301B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210815270.2A CN114882301B (zh) 2022-07-11 2022-07-11 基于感兴趣区域的自监督学习医学图像识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210815270.2A CN114882301B (zh) 2022-07-11 2022-07-11 基于感兴趣区域的自监督学习医学图像识别方法及装置

Publications (2)

Publication Number Publication Date
CN114882301A true CN114882301A (zh) 2022-08-09
CN114882301B CN114882301B (zh) 2022-09-13

Family

ID=82682994

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210815270.2A Active CN114882301B (zh) 2022-07-11 2022-07-11 基于感兴趣区域的自监督学习医学图像识别方法及装置

Country Status (1)

Country Link
CN (1) CN114882301B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115798725A (zh) * 2022-10-27 2023-03-14 佛山读图科技有限公司 用于核医学的带病灶人体仿真影像数据制作方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109242032A (zh) * 2018-09-21 2019-01-18 桂林电子科技大学 一种基于深度学习的目标检测方法
CN110276362A (zh) * 2018-03-13 2019-09-24 富士通株式会社 训练图像模型的方法和装置以及分类预测方法和装置
CN111062381A (zh) * 2019-10-17 2020-04-24 安徽清新互联信息科技有限公司 一种基于深度学习的车牌位置检测方法
CN111161275A (zh) * 2018-11-08 2020-05-15 腾讯科技(深圳)有限公司 医学图像中目标对象的分割方法、装置和电子设备
US20200278408A1 (en) * 2019-03-01 2020-09-03 The Regents Of The University Of California Systems, Methods and Media for Automatically Segmenting and Diagnosing Prostate Lesions Using Multi-Parametric Magnetic Resonance Imaging Data
CN111783986A (zh) * 2020-07-02 2020-10-16 清华大学 网络训练方法及装置、姿态预测方法及装置
CN112102266A (zh) * 2020-08-31 2020-12-18 清华大学 基于注意力机制的脑梗死医学影像分类模型的训练方法
CN112270660A (zh) * 2020-09-30 2021-01-26 四川大学 基于深度神经网络的鼻咽癌放疗靶区自动分割方法
CN113159223A (zh) * 2021-05-17 2021-07-23 湖北工业大学 一种基于自监督学习的颈动脉超声图像识别方法
CN114022872A (zh) * 2021-09-24 2022-02-08 中国海洋大学 基于动态神经网络的多种类农作物叶病识别方法
CN114240770A (zh) * 2021-11-22 2022-03-25 苏州涟漪信息科技有限公司 一种图像处理方法、装置、服务器及存储介质
CN114266739A (zh) * 2021-12-14 2022-04-01 南京邮电大学 基于对比学习的半监督卷积神经网络的医学图像分割方法
CN114332547A (zh) * 2022-03-17 2022-04-12 浙江太美医疗科技股份有限公司 医学目标分类方法和装置、电子设备和存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276362A (zh) * 2018-03-13 2019-09-24 富士通株式会社 训练图像模型的方法和装置以及分类预测方法和装置
CN109242032A (zh) * 2018-09-21 2019-01-18 桂林电子科技大学 一种基于深度学习的目标检测方法
CN111161275A (zh) * 2018-11-08 2020-05-15 腾讯科技(深圳)有限公司 医学图像中目标对象的分割方法、装置和电子设备
US20200278408A1 (en) * 2019-03-01 2020-09-03 The Regents Of The University Of California Systems, Methods and Media for Automatically Segmenting and Diagnosing Prostate Lesions Using Multi-Parametric Magnetic Resonance Imaging Data
CN111062381A (zh) * 2019-10-17 2020-04-24 安徽清新互联信息科技有限公司 一种基于深度学习的车牌位置检测方法
CN111783986A (zh) * 2020-07-02 2020-10-16 清华大学 网络训练方法及装置、姿态预测方法及装置
CN112102266A (zh) * 2020-08-31 2020-12-18 清华大学 基于注意力机制的脑梗死医学影像分类模型的训练方法
CN112270660A (zh) * 2020-09-30 2021-01-26 四川大学 基于深度神经网络的鼻咽癌放疗靶区自动分割方法
CN113159223A (zh) * 2021-05-17 2021-07-23 湖北工业大学 一种基于自监督学习的颈动脉超声图像识别方法
CN114022872A (zh) * 2021-09-24 2022-02-08 中国海洋大学 基于动态神经网络的多种类农作物叶病识别方法
CN114240770A (zh) * 2021-11-22 2022-03-25 苏州涟漪信息科技有限公司 一种图像处理方法、装置、服务器及存储介质
CN114266739A (zh) * 2021-12-14 2022-04-01 南京邮电大学 基于对比学习的半监督卷积神经网络的医学图像分割方法
CN114332547A (zh) * 2022-03-17 2022-04-12 浙江太美医疗科技股份有限公司 医学目标分类方法和装置、电子设备和存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
XIAOHANYU等: "MaskCOV: A random mask covariance network for ultra-fine-grained visual categorization", 《PATTERN RECOGNITION》 *
ZHENYU LI等: "Superpixel Masking and Inpainting for Self-Supervised Anomaly Detection", 《THE 31ST BRITISH MACHINE VISION VIRTUAL - BMVC2020》 *
张云帅: "基于Mask R-CNN改进的图像实例分割算法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
钟盼: "基于多任务有限监督学习的视网膜OCT图像病症诊断方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115798725A (zh) * 2022-10-27 2023-03-14 佛山读图科技有限公司 用于核医学的带病灶人体仿真影像数据制作方法
CN115798725B (zh) * 2022-10-27 2024-03-26 佛山读图科技有限公司 用于核医学的带病灶人体仿真影像数据制作方法

Also Published As

Publication number Publication date
CN114882301B (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
Le et al. Deep reinforcement learning in computer vision: a comprehensive survey
CN110532900B (zh) 基于U-Net和LS-CNN的人脸表情识别方法
Cui et al. Efficient human motion prediction using temporal convolutional generative adversarial network
CN110717903A (zh) 一种利用计算机视觉技术进行农作物病害检测的方法
Shiri et al. A comprehensive overview and comparative analysis on deep learning models: CNN, RNN, LSTM, GRU
CN114241548A (zh) 一种基于改进YOLOv5的小目标检测算法
Xia et al. A multi-scale segmentation-to-classification network for tiny microaneurysm detection in fundus images
Li et al. Natural tongue physique identification using hybrid deep learning methods
Rusia et al. An efficient CNN approach for facial expression recognition with some measures of overfitting
Rezk et al. An efficient plant disease recognition system using hybrid convolutional neural networks (cnns) and conditional random fields (crfs) for smart iot applications in agriculture
CN111738074B (zh) 基于弱监督学习的行人属性识别方法、系统及装置
CN113705655A (zh) 三维点云全自动分类方法及深度神经网络模型
CN114882301B (zh) 基于感兴趣区域的自监督学习医学图像识别方法及装置
Defriani et al. Recognition of Regional Traditional House in Indonesia Using Convolutional Neural Network (CNN) Method
Parez et al. Towards Sustainable Agricultural Systems: A Lightweight Deep Learning Model for Plant Disease Detection.
Selvakumar et al. Automated mango leaf infection classification using weighted and deep features with optimized recurrent neural network concept
CN113096080B (zh) 图像分析方法及系统
Zhang et al. A precise apple leaf diseases detection using BCTNet under unconstrained environments
Brar et al. A smart approach to coconut leaf spot disease classification using computer vision and deep learning technique
Dhawan et al. Deep Learning Based Sugarcane Downy Mildew Disease Detection Using CNN-LSTM Ensemble Model for Severity Level Classification
Ding et al. Rethinking click embedding for deep interactive image segmentation
CN110363240B (zh) 一种医学影像分类方法与系统
CN112488996A (zh) 非齐次三维食管癌能谱ct弱监督自动标注方法与系统
CN116612386A (zh) 基于分级检测双任务模型的辣椒病虫害识别方法及系统
CN115762721A (zh) 一种基于计算机视觉技术的医疗影像质控方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant