CN115578335B - 基于多尺度特征提取的声带白斑图像分类方法 - Google Patents

基于多尺度特征提取的声带白斑图像分类方法 Download PDF

Info

Publication number
CN115578335B
CN115578335B CN202211200746.8A CN202211200746A CN115578335B CN 115578335 B CN115578335 B CN 115578335B CN 202211200746 A CN202211200746 A CN 202211200746A CN 115578335 B CN115578335 B CN 115578335B
Authority
CN
China
Prior art keywords
feature map
convolution
pixels
neural network
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211200746.8A
Other languages
English (en)
Other versions
CN115578335A (zh
Inventor
尤珍臻
闫妍
石争浩
赵明华
闫静
刘海琴
黑新宏
任晓勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Second Affiliated Hospital School of Medicine of Xian Jiaotong University
Original Assignee
Xian University of Technology
Second Affiliated Hospital School of Medicine of Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology, Second Affiliated Hospital School of Medicine of Xian Jiaotong University filed Critical Xian University of Technology
Priority to CN202211200746.8A priority Critical patent/CN115578335B/zh
Publication of CN115578335A publication Critical patent/CN115578335A/zh
Application granted granted Critical
Publication of CN115578335B publication Critical patent/CN115578335B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本发明的目的是提供一种基于多尺度特征提取的声带白斑图像分类方法,首先建立数据库,将该数据库中的图像随机分成训练集和测试集;然后进行预处理,得到归一化的训练集图像和测试集图像;再构建基于多尺度特征提取的卷积神经网络:采用训练集图像作为基于多尺度特征提取的卷积神经网络的输入,训练、更新网络参数,从而得到基于多尺度特征提取的卷积神经网络的模型;最后预测喉镜白光图像类别,网络得到的输出结果即为预测的测试集中喉镜白光图像所属类别。本发明解决了现有技术中存在的声带白斑图像分类精度有限的问题。

Description

基于多尺度特征提取的声带白斑图像分类方法
技术领域
本发明属于计算机科学与临床医学技术领域,具体涉及一种基于多尺度特征提取的声带白斑图像分类方法。
背景技术
声带白斑是声带常见疾病之一,作为临床诊断,其病理范围涵盖良性炎症性疾病至喉恶性肿瘤,基于不同高危因素及病理分级,临床进行保守治疗或不同程度的手术治疗。虽然病人有无吸烟史、临床症状及声带喉镜特点可作为判断其良恶性的依据,但需要经验丰富的耳鼻咽喉头颈外科医生在经过专业培训和长期临床实践中才能胜任。且目前基于白斑疾病的自动诊断大多以良恶性分类,而针对其癌前病变的严重程度,尚未有准确的自动分类方法。近年来的目标分类方法(AlexNet、VGG、ResNet、DenseNet、Inception等)可以有效地判断喉健康与否问题,但是对于更进一步的疾病分类问题,其精度有限。
发明内容
本发明的目的是提供一种基于多尺度特征提取的声带白斑图像分类方法,解决了现有技术中存在的声带白斑图像分类精度有限的问题。
本发明所采用的技术方案是,基于多尺度特征提取的声带白斑图像分类方法,具体按照以下步骤实施:
步骤1、建立数据库,将该数据库中的图像随机分成训练集和测试集;
步骤2、对步骤1建立的训练集和测试集分别进行预处理,得到归一化的训练集图像和测试集图像;
步骤3、构建基于多尺度特征提取的卷积神经网络:采用步骤2的训练集图像作为基于多尺度特征提取的卷积神经网络的输入,训练、更新网络参数,从而得到基于多尺度特征提取的卷积神经网络的模型;
步骤4、预测喉镜白光图像类别:将步骤2的测试集图像送入步骤3训练好的基于多尺度特征提取的卷积神经网络模型的输入端,该网络得到的输出结果即为预测的测试集中喉镜白光图像所属类别。
本发明的特点还在于,
步骤1具体按照以下步骤实施:
从M张图像中随机选取80%的图像作为训练集,20%的图像作为测试集,将M张图像的类别分为健康、炎症角化、轻度不典型增生、中度不典型增生、重度不典型增生、鳞状细胞癌6类,数值分别为0、1、2、3、4、5。
步骤2具体按照以下步骤实施:
对步骤1的M张图像进行预处理,得到归一化的图像I:
Figure BDA0003872357750000021
步骤1的数据库图像为彩色图像,由R、G、B分量构成,IR(x,y)为像素(x,y)在R分量中的值,IG(x,y)为像素(x,y)在G分量中的值,IB(x,y)为像素(x,y)在B分量中的值,
Figure BDA0003872357750000022
分别为图像I中像素(x,y)在R、G、B分量中的归一化值,范围为0-1。
步骤3具体按照以下步骤实施:
步骤3.1、首先构建3个尺度提取图像特征,分别得到特征图
Figure BDA0003872357750000031
特征图
Figure BDA0003872357750000032
得到特征图
Figure BDA0003872357750000033
步骤3.2、将步骤3.1中得到的3个尺度的特征图
Figure BDA0003872357750000034
Figure BDA0003872357750000035
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure BDA0003872357750000036
m1为该特征图的编号,至此,感受野尺寸为21×21像素、13×13像素和5×5像素;
步骤3.3、然后继续构建3个尺度提取图像特征,分别得到特征图
Figure BDA0003872357750000037
特征图
Figure BDA0003872357750000038
特征图
Figure BDA0003872357750000039
步骤3.4、将步骤3.3中得到的三个尺度的特征图
Figure BDA00038723577500000310
Figure BDA00038723577500000311
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure BDA00038723577500000312
m2为该特征图的编号,至此,感受野尺寸为46×46像素、38×38像素、30×30像素、22×22像素、14×14像素;
步骤3.5、对步骤3.2得到的特征图
Figure BDA00038723577500000313
进行一次最大池化操作,得到特征图
Figure BDA00038723577500000314
将特征图
Figure BDA00038723577500000315
与步骤3.4得到的特征图
Figure BDA00038723577500000316
级联在一起,得到特征图
Figure BDA00038723577500000317
m12为特征图的编号;
步骤3.6、然后继续构建3个尺度提取图像特征,得到特征图
Figure BDA0003872357750000041
特征图
Figure BDA0003872357750000042
特征图
Figure BDA0003872357750000043
步骤3.7、将步骤3.6中得到的三个尺度的特征图
Figure BDA0003872357750000044
Figure BDA0003872357750000045
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure BDA0003872357750000046
m3为该特征图的编号,至此,感受野尺寸为96×96像素、88×88像素、80×80像素、72×72像素、64×64、56×56像素、48×48像素、40×40像素、32×32像素;
步骤3.8、对步骤3.5得到的特征图
Figure BDA0003872357750000047
进行一次最大池化操作,得到特征图
Figure BDA0003872357750000048
将其与步骤3.7得到的特征图
Figure BDA0003872357750000049
级联在一起,得到特征图
Figure BDA00038723577500000410
m23为该特征图的编号;
步骤3.9、使用大小为1×1像素的256个卷积核对步骤3.8得到的特征图
Figure BDA00038723577500000411
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA00038723577500000412
d为该特征图的编号;
步骤3.10、使用大小为3×3像素的512个卷积核对步骤3.9得到的特征图
Figure BDA00038723577500000413
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA00038723577500000414
e1为该特征图的编号;
步骤3.11、将步骤3.9中得到的特征图
Figure BDA0003872357750000051
与步骤3.10中得到的特征图
Figure BDA0003872357750000052
级联在一起,再使用大小为3×3像素的512个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000053
,e2为该特征图的编号;
步骤3.12、将步骤3.9中得到的特征图
Figure BDA0003872357750000054
与步骤3.10中得到的特征图
Figure BDA0003872357750000055
以及步骤3.11中得到的特征图
Figure BDA0003872357750000056
级联在一起,再使用大小为3×3像素的256个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000057
,e3为该特征图的编号;
步骤3.13、使用大小为3×3像素的512个卷积核对步骤3.12得到的特征图
Figure BDA0003872357750000058
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000059
,f1为该特征图的编号;
步骤3.14、将步骤3.12中得到的特征图
Figure BDA00038723577500000510
与步骤3.13中得到的特征图
Figure BDA00038723577500000511
级联在一起,再使用大小为3×3像素的512个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000061
,f2为该特征图的编号;
步骤3.15、将步骤3.12中得到的特征图
Figure BDA0003872357750000062
与步骤3.13中得到的特征图
Figure BDA0003872357750000063
以及步骤3.14中得到的特征图
Figure BDA0003872357750000064
级联在一起,再使用大小为3×3像素的256个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000065
,f3为该特征图的编号;
步骤3.16、使用大小为3×3像素的512个卷积核对步骤3.15得到的特征图
Figure BDA0003872357750000066
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000067
,g为该特征图的编号;
步骤3.17、对步骤3.16得到的特征图
Figure BDA0003872357750000068
应用全连接方法将特征图通道维数调整到1024,得到特征图
Figure BDA0003872357750000069
,然后再重复应用全连接方法保持特征图通道维数为1024,得到特征图
Figure BDA00038723577500000610
,最后应用全连接方法将特征图通道维数调整到6,与喉镜白光图像类别总数一致,得到特征图
Figure BDA00038723577500000611
,6个通道中数值最大值对应的通道角标即为预测的该输入图像的类别;
步骤3.18、设置学习率为0.00001,选择SGD作为优化器,损失函数设为crossentropy,使用反向传播和随机梯度下降法最小化损失函数,将步骤2的训练集图像训练100次后得到训练好的网络参数,即所有卷积核的权重,所有卷积核的权重即构成基于多尺度特征提取的卷积神经网络模型。
步骤3.1具体按照以下步骤实施:
步骤3.1.1.使用大小为11×11像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000071
,a1为该特征图的编号,256为输入图像的尺寸;
步骤3.1.2.使用大小为7×7像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000072
,a2为该特征图的编号;
步骤3.1.3.使用大小为3×3像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些64个卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000073
,a3为该特征图的编号。
步骤3.3具体按照以下步骤实施:
步骤3.3.1.使用大小为7×7像素的128个卷积核对步骤3.2得到的特征图
Figure BDA0003872357750000074
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000075
,b1为该特征图的编号;
步骤3.3.2.使用大小为5×5像素的128个卷积核对步骤3.2得到的特征图
Figure BDA0003872357750000081
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000082
,b2为该特征图的编号;
步骤3.3.3.使用大小为3×3像素的128个卷积核对步骤3.2得到的特征图
Figure BDA0003872357750000083
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000084
,b3为该特征图的编号。
步骤3.6具体按照以下步骤实施:
步骤3.6.1.使用大小为7×7像素的256个卷积核对步骤3.5得到的特征图
Figure BDA0003872357750000085
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000086
,c1为该特征图的编号;
步骤3.6.2.使用大小为5×5像素的256个卷积核对步骤3.5得到的特征图
Figure BDA0003872357750000087
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000088
,c2为该特征图的编号;
步骤3.6.3.使用大小为3×3像素的256个卷积核对步骤3.5得到的特征图
Figure BDA0003872357750000089
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000091
,c3为该特征图的编号。
本发明的有益效果是,基于多尺度特征提取的声带白斑图像分类方法,将喉镜白光图像按照实际情况分为6类进行学习,构建的基于多尺度特征提取的卷积神经网络,可以自动、有效、准确地判断喉镜白光图像类别;构建的基于多尺度特征提取的卷积神经网络,便于直接应用训练好的模型处理新的图像,能有效的缩短喉镜白光图像的判断时间。
附图说明
图1是本发明基于多尺度特征提取的声带白斑图像分类方法的流程示意图;
图2是本发明构建的基于多尺度特征提取的卷积神经网络结构;
图3(a)为本发明基于多尺度特征提取的声带白斑图像分类方法使用健康图像示例;
图3(b)为本发明基于多尺度特征提取的声带白斑图像分类方法使用炎症角化图像示例;
图3(c)为本发明基于多尺度特征提取的声带白斑图像分类方法使用轻度不典型增生图像示例;
图3(d)为本发明基于多尺度特征提取的声带白斑图像分类方法使用中度不典型增生图像示例;
图3(e)为本发明基于多尺度特征提取的声带白斑图像分类方法使用重度不典型增生图像示例;
图3(f)为本发明基于多尺度特征提取的声带白斑图像分类方法使用鳞状细胞癌图像示例。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于多尺度特征提取的声带白斑图像分类方法,流程图如图1所示,具体按照以下步骤实施:
步骤1、建立数据库,将该数据库中的图像随机分成训练集和测试集;
步骤1具体按照以下步骤实施:
从M张图像中随机选取80%的图像作为训练集,20%的图像作为测试集,将M张图像的类别分为健康、炎症角化、轻度不典型增生、中度不典型增生、重度不典型增生、鳞状细胞癌6类,数值分别为0、1、2、3、4、5。
步骤2、对步骤1建立的训练集和测试集分别进行预处理,得到归一化的训练集图像和测试集图像;
步骤2具体按照以下步骤实施:
对步骤1的M张图像进行预处理,得到归一化的图像I:
Figure BDA0003872357750000101
步骤1的数据库图像为彩色图像,由R、G、B分量构成,IR(x,y)为像素(x,y)在R分量中的值,IG(x,y)为像素(x,y)在G分量中的值,IB(x,y)为像素(x,y)在B分量中的值,
Figure BDA0003872357750000102
分别为图像I中像素(x,y)在R、G、B分量中的归一化值,范围为0-1。
步骤3、构建基于多尺度特征提取的卷积神经网络:采用步骤2的训练集图像作为基于多尺度特征提取的卷积神经网络的输入,训练、更新网络参数,从而得到基于多尺度特征提取的卷积神经网络的模型;
步骤3具体按照以下步骤实施:
步骤3.1、首先构建3个尺度提取图像特征,分别得到特征图
Figure BDA0003872357750000111
、特征图
Figure BDA0003872357750000112
、得到特征图
Figure BDA0003872357750000113
步骤3.1具体按照以下步骤实施:
步骤3.1.1.使用大小为11×11像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000114
,a1为该特征图的编号,256为输入图像的尺寸;
步骤3.1.2.使用大小为7×7像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000115
,a2为该特征图的编号;
步骤3.1.3.使用大小为3×3像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些64个卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000116
,a3为该特征图的编号。
步骤3.2、将步骤3.1中得到的3个尺度的特征图
Figure BDA0003872357750000117
Figure BDA0003872357750000121
Figure BDA0003872357750000122
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure BDA0003872357750000123
,m1为该特征图的编号,至此,感受野尺寸为21×21像素、13×13像素和5×5像素;
步骤3.3、然后继续构建3个尺度提取图像特征,分别得到特征图
Figure BDA0003872357750000124
、特征图
Figure BDA0003872357750000125
、特征图
Figure BDA0003872357750000126
步骤3.3具体按照以下步骤实施:
步骤3.3.1.使用大小为7×7像素的128个卷积核对步骤3.2得到的特征图
Figure BDA0003872357750000127
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000128
,b1为该特征图的编号;
步骤3.3.2.使用大小为5×5像素的128个卷积核对步骤3.2得到的特征图
Figure BDA0003872357750000129
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA00038723577500001210
,b2为该特征图的编号;
步骤3.3.3.使用大小为3×3像素的128个卷积核对步骤3.2得到的特征图
Figure BDA00038723577500001211
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA00038723577500001212
,b3为该特征图的编号。
步骤3.4、将步骤3.3中得到的三个尺度的特征图
Figure BDA0003872357750000131
Figure BDA0003872357750000132
Figure BDA0003872357750000133
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure BDA0003872357750000134
,m2为该特征图的编号,至此,感受野尺寸为46×46像素、38×38像素、30×30像素、22×22像素、14×14像素;
步骤3.5、对步骤3.2得到的特征图
Figure BDA0003872357750000135
进行一次最大池化操作,得到特征图
Figure BDA0003872357750000136
,将特征图
Figure BDA0003872357750000137
与步骤3.4得到的特征图
Figure BDA0003872357750000138
级联在一起,得到特征图
Figure BDA0003872357750000139
,m12为特征图的编号;
步骤3.6、然后继续构建3个尺度提取图像特征,得到特征图
Figure BDA00038723577500001310
、特征图
Figure BDA00038723577500001311
、特征图
Figure BDA00038723577500001312
步骤3.6具体按照以下步骤实施:
步骤3.6.1.使用大小为7×7像素的256个卷积核对步骤3.5得到的特征图
Figure BDA00038723577500001313
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA00038723577500001314
,c1为该特征图的编号;
步骤3.6.2.使用大小为5×5像素的256个卷积核对步骤3.5得到的特征图
Figure BDA00038723577500001315
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA00038723577500001316
,c2为该特征图的编号;
步骤3.6.3.使用大小为3×3像素的256个卷积核对步骤3.5得到的特征图
Figure BDA0003872357750000141
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000142
,c3为该特征图的编号。
步骤3.7、将步骤3.6中得到的三个尺度的特征图
Figure BDA0003872357750000143
Figure BDA0003872357750000144
Figure BDA0003872357750000145
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure BDA0003872357750000146
,m3为该特征图的编号,至此,感受野尺寸为96×96像素、88×88像素、80×80像素、72×72像素、64×64、56×56像素、48×48像素、40×40像素、32×32像素;
步骤3.8、对步骤3.5得到的特征图
Figure BDA0003872357750000147
进行一次最大池化操作,得到特征图
Figure BDA0003872357750000148
,将其与步骤3.7得到的特征图
Figure BDA0003872357750000149
级联在一起,得到特征图
Figure BDA00038723577500001410
,m23为该特征图的编号;
步骤3.9、使用大小为1×1像素的256个卷积核对步骤3.8得到的特征图
Figure BDA00038723577500001411
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA00038723577500001412
,d为该特征图的编号;
步骤3.10、使用大小为3×3像素的512个卷积核对步骤3.9得到的特征图
Figure BDA0003872357750000151
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000152
,e1为该特征图的编号;
步骤3.11、将步骤3.9中得到的特征图
Figure BDA0003872357750000153
与步骤3.10中得到的特征图
Figure BDA0003872357750000154
级联在一起,再使用大小为3×3像素的512个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000155
,e2为该特征图的编号;
步骤3.12、将步骤3.9中得到的特征图
Figure BDA0003872357750000156
与步骤3.10中得到的特征图
Figure BDA0003872357750000157
以及步骤3.11中得到的特征图
Figure BDA0003872357750000158
级联在一起,再使用大小为3×3像素的256个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000159
,e3为该特征图的编号;
步骤3.13、使用大小为3×3像素的512个卷积核对步骤3.12得到的特征图
Figure BDA00038723577500001510
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA00038723577500001511
,f1为该特征图的编号;
步骤3.14、将步骤3.12中得到的特征图
Figure BDA00038723577500001512
与步骤3.13中得到的特征图
Figure BDA0003872357750000161
级联在一起,再使用大小为3×3像素的512个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000162
,f2为该特征图的编号;
步骤3.15、将步骤3.12中得到的特征图
Figure BDA0003872357750000163
与步骤3.13中得到的特征图
Figure BDA0003872357750000164
以及步骤3.14中得到的特征图
Figure BDA0003872357750000165
级联在一起,再使用大小为3×3像素的256个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000166
,f3为该特征图的编号;
步骤3.16、使用大小为3×3像素的512个卷积核对步骤3.15得到的特征图
Figure BDA0003872357750000167
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure BDA0003872357750000168
,g为该特征图的编号;
步骤3.17、对步骤3.16得到的特征图
Figure BDA0003872357750000169
应用全连接方法将特征图通道维数调整到1024,得到特征图
Figure BDA00038723577500001610
,然后再重复应用全连接方法保持特征图通道维数为1024,得到特征图
Figure BDA00038723577500001611
,最后应用全连接方法将特征图通道维数调整到6,与喉镜白光图像类别总数一致,得到特征图
Figure BDA00038723577500001612
,6个通道中数值最大值对应的通道角标即为预测的该输入图像的类别;
步骤3.18、设置学习率为0.00001,选择SGD作为优化器,损失函数设为crossentropy,使用反向传播和随机梯度下降法最小化损失函数,将步骤2的训练集图像训练100次后得到训练好的网络参数,即所有卷积核的权重,所有卷积核的权重即构成基于多尺度特征提取的卷积神经网络模型。
步骤4、预测喉镜白光图像类别:将步骤2的测试集图像送入步骤3训练好的基于多尺度特征提取的卷积神经网络模型的输入端,该网络得到的输出结果即为预测的测试集中喉镜白光图像所属类别。
本发明所使用的数据库来自于合作单位西安交通大学第二附属医院耳鼻喉头颈外科提供的声带白斑图像,共246张图像。
本发明中步骤1是从246张图像中随机选取198张图像作为训练集,使用剩余48张图像作为测试集,将图像的类别分为健康、炎症角化、轻度不典型增生、中度不典型增生、重度不典型增生、鳞状细胞癌6类,数值分别为0、1、2、3、4、5。
图2是本发明构建的基于多尺度特征提取的卷积神经网络结构,首先构建3个特征提取模块从网络输入的白光图像中提取多尺度特征,每个特征提取模块分别由3个并行的不同大小卷积核构成的卷积运算提取多尺度特征,再将他们与上一级特征提取模块得到的结果级联在一起送入下一层网络,然后用1个卷积运算对经过3个特征提取模块后得到的特征图进行降维,再进行连续3次的深度特征提取,最后由3个全连接层将特征图转化为1维线阵,其中的最大值对应的角标为预测的分类结果。
本发明构建的基于多尺度特征提取的卷积神经网络使用测试集验证声带白斑疾病判断的准确性。将步骤2的测试集图像送入神经网络,利用训练好的神经网络模型得到喉镜白光图像的类别,
表1是对步骤2的测试集图像分别应用AlexNet、VGG、ResNet、DenseNet、Inception、本发明的神经网络,通过对比自动分类结果与步骤1的测试集图像真实类别,计算声带白斑图像的准确性,
表1应用不同方法得到的声带白斑判断的准确率
方法 准确率
AlexNet 79.17%
Vgg11 75.00%
Vgg13 75.00%
Vgg16 83.30%
Vgg19 70.83%
ResNet50 47.92%
ResNet101 33.33%
ResNet152 29.17%
DenseNet121 58.33%
DenseNet169 54.17%
DenseNet201 52.08%
InceptionV3 41.67%
发明的神经网络 87.50%
图3(a)~图3(f)为基于不同高危因素及病理特征对图像的分类,其中图(a)为本发明基于多尺度特征提取的声带白斑图像分类方法使用健康图像示例;图3(b)为本发明基于多尺度特征提取的声带白斑图像分类方法使用炎症角化图像示例;图3(c)为本发明基于多尺度特征提取的声带白斑图像分类方法使用轻度不典型增生图像示例;图3(d)为本发明基于多尺度特征提取的声带白斑图像分类方法使用中度不典型增生图像示例;图3(e)为本发明基于多尺度特征提取的声带白斑图像分类方法使用重度不典型增生图像示例;图3(f)为本发明基于多尺度特征提取的声带白斑图像分类方法使用鳞状细胞癌图像示例,可以看出从图3(a)到图3(f),病症越来越严重。
表1中各方法参考文献如下:
AlexNet:A.Krizhevsky,I.Sutskever,and G.E.Hinton,“Imagenetclassification with deep convolutional neural networks,”in Advances in NeuralInformation Processing Systems,p.2012.
Vgg:K.Simonyan and A.Zisserman.“Very Deep Convolutional Networks forLarge-Scale Image Recognition,”inInternational Conference on LearningRepresentations(ICLR),Sep.2015。
ResNet:K.He,X.Zhang,S.Ren,and J.Sun,“Deep Residual Learning for ImageRecognition,”in 2016IEEE Conference on Computer Vision and PatternRecognition(CVPR),Jun.2016,pp.770–778.doi:10.1109/CVPR.2016.90.
DenseNet:G.Huang,Z.Liu,L.Van Der Maaten,and K.Q.Weinberger,“DenselyConnected Convolutional Networks,”in 2017IEEE Conference on Computer Visionand Pattern Recognition(CVPR),Jul.2017,pp.2261–2269.doi:10.1109/CVPR.2017.243.
InceptionV3:C.Szegedy,V.Vanhoucke,S.Ioffe,J.Shlens,and Z.Wojna,“Rethinking the Inception Architecture for Computer Vision,”in 2016IEEEConference on Computer Vision and Pattern Recognition(CVPR),Jun.2016,pp.2818–2826.doi:10.1109/CVPR.2016.308.

Claims (4)

1.基于多尺度特征提取的声带白斑图像分类方法,其特征在于,具体按照以下步骤实施:
步骤1、建立数据库,将该数据库中的图像随机分成训练集和测试集;
所述步骤1具体按照以下步骤实施:
从M张图像中随机选取80%的图像作为训练集,20%的图像作为测试集,将M张图像的类别分为健康、炎症角化、轻度不典型增生、中度不典型增生、重度不典型增生、鳞状细胞癌6类,数值分别为0、1、2、3、4、5;
步骤2、对步骤1建立的训练集和测试集分别进行预处理,得到归一化的训练集图像和测试集图像;
所述步骤2具体按照以下步骤实施:
对步骤1的M张图像进行预处理,得到归一化的图像I:
Figure FDA0004161757970000011
步骤1的数据库图像为彩色图像,由R、G、B分量构成,IR(x,y)为像素(x,y)在R分量中的值,IG(x,y)为像素(x,y)在G分量中的值,IB(x,y)为像素(x,y)在B分量中的值,
Figure FDA0004161757970000012
分别为图像I中像素(x,y)在R、G、B分量中的归一化值,范围为0-1;
步骤3、构建基于多尺度特征提取的卷积神经网络:采用步骤2的训练集图像作为基于多尺度特征提取的卷积神经网络的输入,训练、更新网络参数,从而得到基于多尺度特征提取的卷积神经网络的模型;
所述步骤3具体按照以下步骤实施:
步骤3.1、首先构建3个尺度提取图像特征,分别得到特征图
Figure FDA0004161757970000021
特征图
Figure FDA0004161757970000022
得到特征图
Figure FDA0004161757970000023
步骤3.2、将步骤3.1中得到的3个尺度的特征图
Figure FDA0004161757970000024
Figure FDA0004161757970000025
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure FDA0004161757970000026
m1为该特征图的编号,至此,感受野尺寸为21×21像素、13×13像素和5×5像素;
步骤3.3、然后继续构建3个尺度提取图像特征,分别得到特征图
Figure FDA0004161757970000027
特征图
Figure FDA0004161757970000028
特征图
Figure FDA0004161757970000029
步骤3.4、将步骤3.3中得到的三个尺度的特征图
Figure FDA00041617579700000210
Figure FDA00041617579700000211
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure FDA00041617579700000212
m2为该特征图的编号,至此,感受野尺寸为46×46像素、38×38像素、30×30像素、22×22像素、14×14像素;
步骤3.5、对步骤3.2得到的特征图
Figure FDA00041617579700000213
进行一次最大池化操作,得到特征图
Figure FDA00041617579700000214
将特征图
Figure FDA00041617579700000215
与步骤3.4得到的特征图
Figure FDA00041617579700000216
级联在一起,得到特征图
Figure FDA00041617579700000217
m12为特征图的编号;
步骤3.6、然后继续构建3个尺度提取图像特征,得到特征图
Figure FDA0004161757970000031
特征图
Figure FDA0004161757970000032
特征图
Figure FDA0004161757970000033
步骤3.7、将步骤3.6中得到的三个尺度的特征图
Figure FDA0004161757970000034
Figure FDA0004161757970000035
级联在一起,再对其进行一次最大池化操作,得到特征图
Figure FDA0004161757970000036
m3为该特征图的编号,至此,感受野尺寸为96×96像素、88×88像素、80×80像素、72×72像素、64×64、56×56像素、48×48像素、40×40像素、32×32像素;
步骤3.8、对步骤3.5得到的特征图
Figure FDA0004161757970000037
进行一次最大池化操作,得到特征图
Figure FDA0004161757970000038
将其与步骤3.7得到的特征图
Figure FDA0004161757970000039
级联在一起,得到特征图
Figure FDA00041617579700000310
m23为该特征图的编号;
步骤3.9、使用大小为1×1像素的256个卷积核对步骤3.8得到的特征图
Figure FDA00041617579700000311
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA00041617579700000312
d为该特征图的编号;
步骤3.10、使用大小为3×3像素的512个卷积核对步骤3.9得到的特征图
Figure FDA00041617579700000313
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA00041617579700000314
e1为该特征图的编号;
步骤3.11、将步骤3.9中得到的特征图
Figure FDA0004161757970000041
与步骤3.10中得到的特征图
Figure FDA0004161757970000042
级联在一起,再使用大小为3×3像素的512个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000043
e2为该特征图的编号;
步骤3.12、将步骤3.9中得到的特征图
Figure FDA0004161757970000044
与步骤3.10中得到的特征图
Figure FDA0004161757970000045
以及步骤3.11中得到的特征图
Figure FDA0004161757970000046
级联在一起,再使用大小为3×3像素的256个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000047
e3为该特征图的编号;
步骤3.13、使用大小为3×3像素的512个卷积核对步骤3.12得到的特征图
Figure FDA0004161757970000048
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000049
f1为该特征图的编号;
步骤3.14、将步骤3.12中得到的特征图
Figure FDA00041617579700000410
与步骤3.13中得到的特征图
Figure FDA00041617579700000411
级联在一起,再使用大小为3×3像素的512个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000051
f2为该特征图的编号;
步骤3.15、将步骤3.12中得到的特征图
Figure FDA0004161757970000052
与步骤3.13中得到的特征图
Figure FDA0004161757970000053
以及步骤3.14中得到的特征图
Figure FDA0004161757970000054
级联在一起,再使用大小为3×3像素的256个卷积核进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000055
f3为该特征图的编号;
步骤3.16、使用大小为3×3像素的512个卷积核对步骤3.15得到的特征图
Figure FDA0004161757970000056
进行一次卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000057
g为该特征图的编号;
步骤3.17、对步骤3.16得到的特征图
Figure FDA0004161757970000058
应用全连接方法将特征图通道维数调整到1024,得到特征图
Figure FDA0004161757970000059
然后再重复应用全连接方法保持特征图通道维数为1024,得到特征图
Figure FDA00041617579700000510
最后应用全连接方法将特征图通道维数调整到6,与喉镜白光图像类别总数一致,得到特征图fj 6,6个通道中数值最大值对应的通道角标即为预测的输入图像的类别;
步骤3.18、设置学习率为0.00001,选择SGD作为优化器,损失函数设为crossentropy,使用反向传播和随机梯度下降法最小化损失函数,将步骤2的训练集图像训练100次后得到训练好的网络参数,即所有卷积核的权重,所有卷积核的权重即构成基于多尺度特征提取的卷积神经网络模型;
步骤4、预测喉镜白光图像类别:将步骤2的测试集图像送入步骤3训练好的基于多尺度特征提取的卷积神经网络模型的输入端,该网络得到的输出结果即为预测的测试集中喉镜白光图像所属类别。
2.根据权利要求1所述的基于多尺度特征提取的声带白斑图像分类方法,其特征在于,所述步骤3.1具体按照以下步骤实施:
步骤3.1.1.使用大小为11×11像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000061
a1为该特征图的编号,256为输入图像的尺寸;
步骤3.1.2.使用大小为7×7像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000062
a2为该特征图的编号;
步骤3.1.3.使用大小为3×3像素的64个卷积核对步骤2的训练集图像进行两次连续的卷积操作,这些64个卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000063
a3为该特征图的编号。
3.根据权利要求2所述的基于多尺度特征提取的声带白斑图像分类方法,其特征在于,所述步骤3.3具体按照以下步骤实施:
步骤3.3.1.使用大小为7×7像素的128个卷积核对步骤3.2得到的特征图
Figure FDA0004161757970000071
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000072
b1为该特征图的编号;
步骤3.3.2.使用大小为5×5像素的128个卷积核对步骤3.2得到的特征图
Figure FDA0004161757970000073
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000074
b2为该特征图的编号;
步骤3.3.3.使用大小为3×3像素的128个卷积核对步骤3.2得到的特征图
Figure FDA0004161757970000075
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000076
b3为该特征图的编号。
4.根据权利要求3所述的基于多尺度特征提取的声带白斑图像分类方法,其特征在于,所述步骤3.6具体按照以下步骤实施:
步骤3.6.1.使用大小为7×7像素的256个卷积核对步骤3.5得到的特征图
Figure FDA0004161757970000077
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000078
c1为该特征图的编号;
步骤3.6.2.使用大小为5×5像素的256个卷积核对步骤3.5得到的特征图
Figure FDA0004161757970000081
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000082
c2为该特征图的编号;
步骤3.6.3.使用大小为3×3像素的256个卷积核对步骤3.5得到的特征图
Figure FDA0004161757970000083
进行两次连续的卷积操作,这些卷积核的权重即为需要训练的基于多尺度特征提取的卷积神经网络的参数之一,得到特征图
Figure FDA0004161757970000084
c3为该特征图的编号。
CN202211200746.8A 2022-09-29 2022-09-29 基于多尺度特征提取的声带白斑图像分类方法 Active CN115578335B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211200746.8A CN115578335B (zh) 2022-09-29 2022-09-29 基于多尺度特征提取的声带白斑图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211200746.8A CN115578335B (zh) 2022-09-29 2022-09-29 基于多尺度特征提取的声带白斑图像分类方法

Publications (2)

Publication Number Publication Date
CN115578335A CN115578335A (zh) 2023-01-06
CN115578335B true CN115578335B (zh) 2023-05-05

Family

ID=84583910

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211200746.8A Active CN115578335B (zh) 2022-09-29 2022-09-29 基于多尺度特征提取的声带白斑图像分类方法

Country Status (1)

Country Link
CN (1) CN115578335B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596258A (zh) * 2018-04-27 2018-09-28 南京邮电大学 一种基于卷积神经网络随机池化的图像分类方法
CN113240620A (zh) * 2021-01-29 2021-08-10 西安理工大学 基于点标记的高度黏连和多尺寸脑神经元自动分割方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012155136A2 (en) * 2011-05-12 2012-11-15 The Johns Hopkins University Method and system for registering images
US11576645B2 (en) * 2015-03-02 2023-02-14 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for scanning a patient in an imaging system
CN107958271A (zh) * 2017-12-06 2018-04-24 电子科技大学 基于膨胀卷积的多尺度特征的皮肤病变深度学习识别系统
CN111553873B (zh) * 2020-01-17 2023-03-14 西安理工大学 基于多尺度卷积神经网络的脑神经元自动检测方法
CN111488912B (zh) * 2020-03-16 2020-12-11 哈尔滨工业大学 一种基于深度学习神经网络的喉部疾病诊断系统
CN112686329A (zh) * 2021-01-06 2021-04-20 西安邮电大学 基于双核卷积特征提取的电子喉镜图像分类方法
CN112734749A (zh) * 2021-01-11 2021-04-30 四川大学华西医院 一种基于卷积神经网络模型的声带白斑辅助诊断系统
CN113888518A (zh) * 2021-10-14 2022-01-04 重庆南鹏人工智能科技研究院有限公司 一种基于深度学习分割、分类多任务的喉咽内镜肿瘤检测及良恶性分类方法
CN114841320A (zh) * 2022-05-07 2022-08-02 西安邮电大学 一种基于喉镜医学影像的器官自动分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596258A (zh) * 2018-04-27 2018-09-28 南京邮电大学 一种基于卷积神经网络随机池化的图像分类方法
CN113240620A (zh) * 2021-01-29 2021-08-10 西安理工大学 基于点标记的高度黏连和多尺寸脑神经元自动分割方法

Also Published As

Publication number Publication date
CN115578335A (zh) 2023-01-06

Similar Documents

Publication Publication Date Title
CN108305249B (zh) 基于深度学习的全尺度病理切片的快速诊断和评分方法
Guo et al. Classification of thyroid ultrasound standard plane images using ResNet-18 networks
CN109670510A (zh) 一种基于深度学习的胃镜活检病理数据筛查系统和方法
CN109740679B (zh) 一种基于卷积神经网络和朴素贝叶斯的目标识别方法
CN107832802A (zh) 基于人脸比对的人脸图像质量评价方法及装置
CN108629772A (zh) 图像处理方法及装置、计算机设备和计算机存储介质
CN109528230B (zh) 一种基于多级变换网络的乳腺肿瘤分割方法及装置
CN112950614B (zh) 一种基于多尺度空洞卷积的乳腺癌病理图片分类方法
CN111653365A (zh) 一种鼻咽癌辅助诊断模型构建和辅助诊断方法及系统
CN111369501B (zh) 一种基于视觉特征识别口腔鳞状细胞癌的深度学习方法
CN112598620B (zh) 尿沉渣中透明管型、病理管型以及粘液丝的识别方法
CN111488912B (zh) 一种基于深度学习神经网络的喉部疾病诊断系统
CN105574356A (zh) 一种乳腺肿瘤的建模与诊断方法
CN109614869A (zh) 一种基于多尺度压缩奖惩网络的病理图像分类方法
CN113011306A (zh) 连续成熟阶段骨髓细胞图像自动识别方法、系统及介质
CN116612334B (zh) 一种基于空谱联合注意力机制的医学高光谱图像分类方法
CN112598086A (zh) 基于深度神经网络的常见结肠部疾病分类方法及辅助系统
CN110288574A (zh) 一种超声辅助诊断肝肿块系统及方法
CN115100467A (zh) 一种基于核注意力网络的病理全切片图像分类方法
Junayed et al. ScarNet: development and validation of a novel deep CNN model for acne scar classification with a new dataset
CN115294075A (zh) 一种基于注意力机制的octa图像视网膜血管分割方法
Jafarbiglo et al. Nuclear atypia grading in histopathological images of breast cancer using convolutional neural networks
CN115578335B (zh) 基于多尺度特征提取的声带白斑图像分类方法
CN112263224B (zh) 一种基于fpga边缘计算的医学信息处理方法
Dong et al. An improved YOLOv5 network for lung nodule detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant