CN111476312B - 一种基于卷积神经网络的病变图像的分类方法 - Google Patents
一种基于卷积神经网络的病变图像的分类方法 Download PDFInfo
- Publication number
- CN111476312B CN111476312B CN202010336446.7A CN202010336446A CN111476312B CN 111476312 B CN111476312 B CN 111476312B CN 202010336446 A CN202010336446 A CN 202010336446A CN 111476312 B CN111476312 B CN 111476312B
- Authority
- CN
- China
- Prior art keywords
- image
- lesion
- network
- classification
- stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于卷积神经网络的病变图像的分类方法,具体包括以下步骤:(1)采集病灶图像制作图像数据库,并将图像数据库内的图像标注类别;(2)采用图像增强算法增强训练样本集内的原始图像,提高图像的纹理和细节清晰度;(3)构建病变分类网络,用训练样本集训练所述分类网络,确定网络参数,得到分类模型;(4)将待测试的病变图像输入病变分类网络中,得到病变所属类别,完成病变图像的分类。本发明通过病变分类网络双流CNN基于O‑stream和P‑stream模型分别提取全局、颜色特征和纹理、细节特征,有效的提高了最终的分类效果。
Description
技术领域
本发明涉及病变图像分类的处理领域,具体涉及一种基于卷积神经网络的病变图像的分类方法。
背景技术
近年来,随着科技的发展,内窥镜技术在临床上得到了广泛的应用,能够以最少的伤害,达成观察人体内部器官的目的。然而,每次内窥镜检查将产生大量的数据图像。为了检测病变图像,医生需要消耗大量时间在阅览图像工作,同时也会因为视觉疲劳产生漏检和误检。因此,研究出一套内窥镜病变图像自动分类的方法是当前急需解决的关键问题。目前在自动检测内窥镜病变图像研究领域中,众多研究者采用了传统的机器学习方法,而传统的机器学习方法往往需要人工提取特征,其方法比较繁琐,且很难达到预期理想的结果。深度学习与传统的机器学习相比,因其具有自动提取图像特征的优势而被广泛应用于众多图像处理领域中,在最后的处理结果中能够达到预期的理想效果,因此,本文基于深度学习思想,提出利用卷积神经网络方法 (Convolutional Neural Network,CNN)对内窥镜图像常见病变的识别研究。
发明内容
本发明所要解决的技术问题是提供一种基于卷积神经网络的病变图像的分类方法来解决现有技术中的对于病变图像的特征提取采用人工提取的方法带来的方法繁琐,提取效果不好的问题。
为解决以上技术问题,本发明的技术方案为:提供一种基于卷积神经网络的病变图像的分类方法,其创新点在于:具体包括以下步骤:
(1)采集病变图像制作图像数据库,所述图像数据库包括患有病人的图像、患以及正常人的白光图像,并将图像数据库内的图像标注类别;
(2)采用图像增强算法增强训练样本集内的原始图像,提高图像的纹理和细节清晰度;
(3)构建病变分类网络,用训练样本集训练所述分类网络,确定网络参数,得到分类模型;
(4)将待测试的病变白光图像输入病变分类网络中,得到病变所属类别,完成病变图像的分类。
进一步的,所述步骤(1)中制作的图像数据库选择图像的标准为:选择可采用常规白光内窥镜检查的图像。
进一步的,所述步骤(1)中的图像数据库中的80%的图像为训练数据集,10%的图像为测试数据集,剩余的10%的图像为验证数据集。
进一步的,所述步骤(2)中增强训练样本集内的原始图像的方法为:
A.对原始图像进行预处理,预处理的公式为:
I’(x,y;σ)=αI(x,y)+βG(x,y;ε)*I(x,y)+γ,
其中,其中*表示卷积操作,I’(x,y;σ)表示预处理后的图像的强度值,I(x,y)代表原始图像的强度值,G(x,y;ε)表示带有尺度ε的高斯滤波器;
B.预处理后的图像前景和背景差异较大,即存在边界效应,将预处理后的图像截取90%来消除边界效应;
C.采用双线性插值法调整图像的尺寸大小;
D.对图像数据进行增强;
进一步的,所述步骤C中采用双线性插值法调整图像的尺寸为 512*512。
进一步的,所述步骤D中对图像进行数据增强的方法为:在水平和垂直方向上进行0-10个像素点的随机平移或者随机进行图像上下镜像变换。
进一步的,所述步骤(3)中的分类网络为双流CNN网络,所述双流 CNN网络由两个互补的网络组成,分别为O-Stream模型和P-Stream模型,所述O-Stream和P-Stream模型包括多个卷积和池化层。
进一步的,所述步骤(3)中用训练样本集训练所述分类网络的方法为:
A.将训练样本集的原始图像输入到O-Stream模型中,观察并提取图像颜色和全局特征;
B.将训练样本集经过预处理的图像输入到P-Stream模型中,P-Stream 模型聚焦于与病变的纹理特征和细节信息;
C.将O-Stream和P-Stream两个模型提取的特征进行融合,进行分类判断。
进一步的,所述步骤C中将O-Stream和P-Stream两个模型提取的特征进行融合的方法为:融合的公式为y=fcat(xo,xp),其中xo表示表示O-stream网络提取到的特征向量,xo∈RH×W×D,其中H、W和D代表特征的高度、宽度和通道维数,xp表示P-stream网络提取到的特征向量, xp∈RH×W×D,fcat表示连接融合操作,y表示连接融合结果,其中,关于 y的公式如下:
进一步的,所述O-Stream和P-Stream两个模型均采用 Inception-ResNet模块。
本发明和现有技术相比,产生的有益效果为:
本发明的一种基于卷积神经网络的病变图像的分类方法通过病变分类网络双流CNN基于O-stream和P-stream模型分别提取全局、颜色特征和纹理、细节特征,有效的提高了最终的分类效果。
附图说明
为了更清晰地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中样本集中样本原始图以及预处理过后的图像。
图2为本发明中分类网络使用的Inception-ResNet模块。
图3为本发明中分类网络测试结果--混淆矩阵。
具体实施方式
下面将通过具体实施方式对本发明的技术方案进行清楚、完整地描述。
食管癌是临床上常见的恶性肿瘤之一,在消化道癌肿中占居第一位。以我国北方地区发病率最高,男性多于女性,患者发病年龄多在 40岁以上。食管慢性炎症也可是导致本病发生的原因。早期食管癌是指癌组织的浸润仅限于粘膜层内及粘膜下层内。对食管癌的早期诊断,早期手术治疗,生存率是较高的,是完全可以治疗的。食管癌是常见的消化系统恶性肿瘤,在世界范围内其发病率及死亡率在所有肿瘤中分别位居第8位、第6位,我国发病率和死亡率更高,在所有肿瘤中分别列为第5位、第4位。许多癌前病变及早期食管癌在白光内镜下特征不显著,漏诊率达40%;部分食管癌患者就诊或确诊时多已达中、晚期,而晚期食管癌患者5年生存率为10%~20%,预后较差。因此,改善食管癌患者预后的关键在于早发现、早诊断、早治疗。
本发明提供一种基于卷积神经网络的食管癌图像的分类方法,具体包括以下步骤:
(1)采集食管图像制作食管图像数据库,食管图像数据库包括患有癌前病症病人的食管图像、患有癌症的食管图像以及正常人的白光图像,并将食管图像数据库内的图像标注类别,其中,制作的食管图像数据库选择图像的标准为:选择可采用常规白光内窥镜检查的图像,且食管图像数据库中的80%的图像为训练数据集,10%的图像为测试数据集,剩余的10%的图像为验证数据集。
(2)采用图像增强算法增强训练样本集内的原始图像,提高图像的纹理和细节清晰度,其中,增强训练样本集内的原始图像的方法为:
A.对原始图像进行预处理,预处理的公式为:
I’(x,y;σ)=αI(x,y)+βG(x,y;ε)*I(x,y)+γ,
其中,其中*表示卷积操作,I’(x,y;σ)表示预处理后的图像的强度值,I(x,y)代表原始图像的强度值,G(x,y;ε)表示带有尺度ε的高斯滤波器如图1所示,a为内窥镜原始图像,b为经过预处理后的图像。
B.预处理后的图像前景和背景差异较大,即存在边界效应,将预处理后的图像截取90%来消除边界效应;
C.采用双线性插值法调整图像的尺寸大小,采用双线性插值法调整图像的尺寸为512*512。
D.对图像数据进行增强:对图像进行数据增强的方法为:在水平和垂直方向上进行0-10个像素点的随机平移或者随机进行图像上下镜像变换。
(3)构建食管病变分类网络,用训练样本集训练所述分类网络,确定网络参数,得到分类模型,其中,分类网络为双流CNN网络,所述双流CNN网络由两个互补的网络组成,分别为O-Stream模型和P-Stream 模型,所述O-Stream和P-Stream模型包括多个卷积和池化层,O-Stream 和P-Stream两个模型均采用Inception-ResNet模块,如图2所示,为Inception-ResNet的基本模块。
本发明用训练样本集训练所述分类网络的方法为:
A.将训练样本集的原始图像输入到O-Stream模型中,观察并提取图像颜色和全局特征;
B.将训练样本集经过预处理的图像输入到P-Stream模型中,P-Stream模型聚焦于与病变的纹理特征和细节信息;
C.将O-Stream和P-Stream两个模型提取的特征进行融合,进行分类判断。其中,将O-Stream和P-Stream两个模型提取的特征进行融合的方法为:融合的公式为y=fcat(xo,xp),其中xo表示表示O-stream网络提取到的特征向量,x°∈RH×W×D,其中H、W和D代表特征的高度、宽度和通道维数,xp表示P-stream网络提取到的特征向量,xp∈RH×W×D, fcat表示连接融合操作,y表示连接融合结果,其中,关于y的公式如下:
(4)将待测试的食管病变白光图像输入食管病变分类网络中,得到食管病变所属类别,完成食管癌图像的分类。
本发明针对以上的一种基于卷积神经网络的食管病变的研究方法选择的数据库为1272张白光内窥镜图像,该数据库包括531张正常图像,387张癌前病变图像和354张癌症图像,为了更好地全面地描述结果,本文使用灵敏度(Sen),特异性(Spec),准确性(Acc) 作为评价指标来测量分类性能:
灵敏度(Sen),特异性(Spec),准确性(Acc)定义如下:
其中TP(TruePositive)表示模型预测为正的正样本,TN(True Negative)表示被模型预测为负的负样本,FP(False Positive)表示被模型预测为正的负样本,最后FN(False Negative)表示被模型预测为负的正样本。对于一个多分类问题,可以表述为多个二分类问题,即正样本为其中一个类,负样本为剩下的其他类,所以也可以用TP, TN,FP,FN等概念来表示结果。
灵敏度Sen是指实际为正的样本中,判断为正的比例;特异性 (Spec)是指实际为负的样本中,判断为负的比例;准确性(Acc) 则描述整个分类器的分类准确率。
表1展示了本发明提出的方法以及子网络O-stream,P-stream 预测测试所有图像的结果:
表1
由表1结果可以看出,所提出的网络在敏感度上略微差于两个子网络,但是在特异度和准确率上都大幅领先于两个子网络,说明双流 CNN网络融合了两个数据流的不同特征提高了网络的整体性能。
表2展示了本发明提出的方法预测测试集每一个类的结果:
表2
表2中,正常类的准确率达到了94.23%,癌前病变类的准确率是82.50%,Cancer的准确率则只有77.14%。
如图3所示,展示了预测测试集不同类的混淆矩阵,纵坐标为真实 label,横坐标为预测label,由此图可以看出,正常类很容易与其他两个类区别开来,但是其他类互相干扰严重。
另外本发明也比较了用LBP和HOG传统方法提取特征的分类方法与我们的所提出的网络进行比较,结果如表3所示:
表3
Sen | Spec | Spec | |
LBP+SVM | 0.6327 | 0.6436 | 0.6475 |
HOG+SVM | 0.5793 | 0.5982 | 0.6040 |
Proposed Method | 0.9423 | 0.9467 | 0.8583 |
由表3可以看出,本发明提出的方法三项指标均大幅领先于用传统方法提取特征的分类方法,深度学习对高维非线性特征学习效果明显,本发明对临床使用的计算机辅助病变图像的分类具有重要意义。
上面所述的实施例仅仅是本发明的优选实施方式进行描述,并非对本发明的构思和范围进行限定,在不脱离本发明设计构思的前提下,本领域中普通工程技术人员对本发明的技术方案作出的各种变型和改进均应落入本发明的保护范围,本发明的请求保护的技术内容,已经全部记载在技术要求书中。
Claims (7)
1.一种基于卷积神经网络的病变图像的分类方法,其特征在于:具体包括以下步骤:
(1)采集病变图像制作图像数据库,所述图像数据库包括患有病症病人的图像、以及正常人的图像,并将该图像数据库内的图像标注类别;
(2)采用图像增强算法增强训练样本集内的原始图像,提高图像的纹理和细节清晰度;
(3)构建病变分类网络,用训练样本集训练所述分类网络,确定网络参数,得到分类模型;
所述分类网络为双流CNN网络,所述双流CNN网络由两个互补的网络组成,分别为O-Stream模型和P-Stream模型,所述O-Stream模型和P-Stream模型包括多个卷积和池化层;
所述步骤(3)中用训练样本集训练所述分类网络的方法为:
A.将训练样本集的原始图像输入到O-Stream模型中,观察并提取图像颜色和全局特征;
B.将训练样本集经过预处理的图像输入到P-Stream模型中,P-Stream模型聚焦于病变的纹理特征和细节信息;
C.将O-Stream模型和P-Stream模型提取的特征进行融合,进行分类判断;
所述步骤C中将O-Stream模型和P-Stream模型提取的特征进行融合的方法为:融合的公式为y=fcat(xo,xp),其中xo表示O-stream网络提取到的特征向量,xo∈RH×W×D,其中H、W和D代表特征的高度、宽度和通道维数,xp表示P-stream网络提取到的特征向量,xp∈RH×W×D,fcat表示连接融合操作,y表示连接融合结果,其中,关于y的公式如下:
(4)将待测试的病变图像输入上述训练好的病变分类网络中,得到病变所属类别,完成病变图像的分类。
2.根据权利要求1所述的一种基于卷积神经网络的病变图像的分类方法,其特征在于:所述步骤(1)中制作的病变图像数据库选择图像的标准为:选择可采用常规白光内窥镜检查的图像。
3.根据权利要求1所述的一种基于卷积神经网络的病变图像的分类方法,其特征在于:所述步骤(1)中的病变图像数据库中的80%的图像为训练数据集,10%的图像为测试数据集,剩余的10%的图像为验证数据集。
4.根据权利要求1所述的一种基于卷积神经网络的病变图像的分类方法,其特征在于:所述步骤(2)中增强训练样本集内的原始图像的方法为:
A.对原始图像进行预处理,预处理的公式为:
I’(x,y;σ)=αI(x,y)+βG(x,y;ε)*I(x,y)+γ;
其中,其中*表示卷积操作,I’(x,y;σ)表示预处理后的图像的强度值,I(x,y)代表原始图像的强度值,G(x,y;ε)表示带有尺度ε的高斯滤波器;
B.预处理后的图像前景和背景差异较大,即存在边界效应,将预处理后的图像截取90%来消除边界效应;
C.采用双线性插值法调整图像的尺寸大小;
D.对图像数据进行增强。
5.根据权利要求4所述的一种基于卷积神经网络的病变图像的分类方法,其特征在于:所述步骤C中采用双线性插值法调整图像的尺寸为512*512。
6.根据权利要求4所述的一种基于卷积神经网络的病变图像的分类方法,其特征在于:所述步骤D中对图像进行数据增强的方法为:在水平和垂直方向上进行0-10个像素点的随机平移或者随机进行图像上下镜像变换。
7.根据权利要求1所述的一种基于卷积神经网络的病变图像的分类方法,其特征在于:所述O-Stream模型和P-Stream模型均采用Inception-ResNet模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010336446.7A CN111476312B (zh) | 2020-04-24 | 2020-04-24 | 一种基于卷积神经网络的病变图像的分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010336446.7A CN111476312B (zh) | 2020-04-24 | 2020-04-24 | 一种基于卷积神经网络的病变图像的分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111476312A CN111476312A (zh) | 2020-07-31 |
CN111476312B true CN111476312B (zh) | 2022-04-19 |
Family
ID=71755637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010336446.7A Active CN111476312B (zh) | 2020-04-24 | 2020-04-24 | 一种基于卷积神经网络的病变图像的分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111476312B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651927A (zh) * | 2020-12-03 | 2021-04-13 | 北京信息科技大学 | 一种基于卷积神经网络与支持向量机的拉曼光谱智能识别方法 |
CN114022725A (zh) * | 2021-10-09 | 2022-02-08 | 北京鹰瞳科技发展股份有限公司 | 一种训练多病种转诊系统的方法、多病种转诊系统以及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021916A (zh) * | 2017-12-31 | 2018-05-11 | 南京航空航天大学 | 基于注意力机制的深度学习糖尿病视网膜病变分类方法 |
CN109740652A (zh) * | 2018-12-24 | 2019-05-10 | 深圳大学 | 一种病理图像分类方法和计算机设备 |
CN109886933A (zh) * | 2019-01-25 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 一种医学图像识别方法、装置和存储介质 |
CN110705440A (zh) * | 2019-09-27 | 2020-01-17 | 贵州大学 | 一种基于神经网络特征融合的胶囊内镜图像识别模型 |
-
2020
- 2020-04-24 CN CN202010336446.7A patent/CN111476312B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021916A (zh) * | 2017-12-31 | 2018-05-11 | 南京航空航天大学 | 基于注意力机制的深度学习糖尿病视网膜病变分类方法 |
CN109740652A (zh) * | 2018-12-24 | 2019-05-10 | 深圳大学 | 一种病理图像分类方法和计算机设备 |
CN109886933A (zh) * | 2019-01-25 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 一种医学图像识别方法、装置和存储介质 |
CN110705440A (zh) * | 2019-09-27 | 2020-01-17 | 贵州大学 | 一种基于神经网络特征融合的胶囊内镜图像识别模型 |
Also Published As
Publication number | Publication date |
---|---|
CN111476312A (zh) | 2020-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vidya et al. | Skin cancer detection using machine learning techniques | |
Ribeiro et al. | Colonic polyp classification with convolutional neural networks | |
WO2019088121A1 (ja) | 画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラム | |
Liedlgruber et al. | Computer-aided decision support systems for endoscopy in the gastrointestinal tract: a review | |
Wu et al. | Automatic hookworm detection in wireless capsule endoscopy images | |
CN109635871B (zh) | 一种基于多特征融合的胶囊内窥镜图像分类方法 | |
CN105657580B (zh) | 一种胶囊内镜视频摘要生成方法 | |
CN111428066B (zh) | 一种基于卷积神经网络的病变图像的分类和分割方法 | |
CN111476312B (zh) | 一种基于卷积神经网络的病变图像的分类方法 | |
CN115049666B (zh) | 基于彩色小波协方差深度图模型的内镜虚拟活检装置 | |
Datar et al. | Color and texture based segmentation of molecular pathology images using HSOMs | |
CN114266786A (zh) | 基于生成对抗网络的胃病变分割方法及系统 | |
Kowal et al. | Computer-aided diagnosis of breast cancer using Gaussian mixture cytological image segmentation | |
Domingues et al. | Computer vision in esophageal cancer: a literature review | |
Singh et al. | Designing a retrieval-based diagnostic aid using effective features to classify skin lesion in dermoscopic images | |
RU2668699C1 (ru) | Интеллектуальный способ диагностики и обнаружения новообразований в легких | |
KR101118211B1 (ko) | 점막하 종양의 초음파 내시경 영상 분석에 의한 질병의 진단 방법 | |
Van Der Sommen et al. | Computer-aided detection of early cancer in the esophagus using HD endoscopy images | |
Sivaprakasam et al. | Segmentation and classification of cervical cytology images using morphological and statistical operations | |
CN112950601B (zh) | 用于食管癌模型训练的图片的筛选方法、系统及存储介质 | |
Cao et al. | Deep learning based lesion detection for mammograms | |
Dalju et al. | Superpixel-based segmentation and classification of gastrointestinal landmarks and diseases | |
Pallavi et al. | Automated analysis of cervix images to grade the severity of cancer | |
TW202335621A (zh) | 基於語義分割於影像辨識之方法 | |
CN111772588A (zh) | 一种基于神经网络集成学习的皮肤镜图像的分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |