CN110490242A - 图像分类网络的训练方法、眼底图像分类方法及相关设备 - Google Patents
图像分类网络的训练方法、眼底图像分类方法及相关设备 Download PDFInfo
- Publication number
- CN110490242A CN110490242A CN201910741377.5A CN201910741377A CN110490242A CN 110490242 A CN110490242 A CN 110490242A CN 201910741377 A CN201910741377 A CN 201910741377A CN 110490242 A CN110490242 A CN 110490242A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- classification
- sample
- portrait
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 102
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 51
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 230000006870 function Effects 0.000 claims description 106
- 239000011159 matrix material Substances 0.000 claims description 46
- 230000002441 reversible effect Effects 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 33
- 238000005267 amalgamation Methods 0.000 claims description 28
- 230000004927 fusion Effects 0.000 claims description 26
- 239000000284 extract Substances 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 17
- 238000010801 machine learning Methods 0.000 description 13
- 230000036961 partial effect Effects 0.000 description 12
- 235000002911 Salvia sclarea Nutrition 0.000 description 11
- 244000182022 Salvia sclarea Species 0.000 description 11
- 230000008878 coupling Effects 0.000 description 11
- 238000010168 coupling process Methods 0.000 description 11
- 238000005859 coupling reaction Methods 0.000 description 11
- 230000000670 limiting effect Effects 0.000 description 9
- 238000003908 quality control method Methods 0.000 description 9
- 230000006854 communication Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 5
- 239000002699 waste material Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000004069 differentiation Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 239000010893 paper waste Substances 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 201000004569 Blindness Diseases 0.000 description 1
- 208000002177 Cataract Diseases 0.000 description 1
- 208000017442 Retinal disease Diseases 0.000 description 1
- 206010038923 Retinopathy Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种基于人工智能的图像分类网络的训练方法、眼底图像分类方法、基于人工智能的图像分类网络的训练装置、计算机可读存储介质及电子设备;涉及人工智能技术领域。该方法包括:根据各横向网络中提取到的图像特征提取纵向网络中样本图像对应的密集特征;根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别确定第一损失函数值,通过第一损失函数值训练图像分类网络;根据图像特征确定各横向网络对应的用于表示样本图像所属类别的标注结果,并根据标注结果确定第二损失函数值,通过第二损失函数值训练图像分类网络。本公开中的方法能够在一定程度上克服网络识别准确率不高的问题,提升网络识别准确率。
Description
技术领域
本公开涉及人工智能技术领域,并涉及机器学习技术,具体而言,涉及一种基于人工智能的图像分类网络的训练方法、眼底图像分类方法、基于人工智能的图像分类网络的训练装置、计算机可读存储介质及电子设备。
背景技术
机器学习(Machine Learning)是一门专门研究计算机怎样才能模拟或实现人类的学习行为,以获取新的知识或技能,使之不断改善自身的性能的学科。机器学习可以用于解决图像识别、语音识别、自然语言理解、天气预测以及内容推荐等问题。
目前,通过机器学习解决问题的思路通常为:通过传感器(比如CMOS)来获得数据,经过预处理、特征提取和特征选择,再进行推理、预测或者识别。在通过机器学习解决相应问题之前,需要对处理数据的网络进行训练,传统的训练方式为通过有监督的方式对网络进行训练,如,给予网络样本图像,以使得网络根据样本图像学习相应的特征。但是,随着输入网络的图像的多样化,传统的训练方式的网络识别准确率还有待提升。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种基于人工智能的图像分类网络的训练方法、眼底图像分类方法、基于人工智能的图像分类网络的训练装置、眼底图像的分类装置、计算机可读存储介质及电子设备,在一定程度上克服图像处理网络识别准确率不高的问题,提升网络识别准确率。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种基于人工智能的图像分类网络的训练方法,包括:
提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征;
根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值,根据第一损失函数值训练图像分类网络;其中,图像分类网络包括纵向网络和横向网络;
根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,根据第二损失函数值训练图像分类网络。
在本公开的一种示例性实施例中,提取各横向网络中样本图像对应的图像特征,包括:
对各横向网络中输入的样本图像进行特征处理,以得到各横向网络中样本图像对应的图像特征,特征处理包括卷积处理、池化处理和非线性激活处理。
在本公开的一种示例性实施例中,提取各纵向网络中样本图像对应的密集特征,包括:
通过纵向密集连接模式将各纵向网络中样本图像对应的图像特征进行连接,并通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合,以确定出各纵向网络中样本图像对应的密集特征。
在本公开的一种示例性实施例中,通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合,包括:
基于图像特征连接顺序将每个图像特征对应的矩阵与该图像特征后各图像特征对应的矩阵分别相加,得到正向密集特征;基于图像特征连接逆序将每个图像特征对应的矩阵与该图像特征后各图像特征对应的矩阵分别相加,得到逆向密集特征;其中,正向密集特征和逆向密集特征均为纵向网络中样本图像对应的密集特征。
在本公开的一种示例性实施例中,根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值,包括:
根据全局池化层对正向密集特征进行分类,以确定出纵向网络中样本图像对应的第一类别;
根据全局池化层对逆向密集特征进行分类,以确定出纵向网络中样本图像对应的第二类别;
根据第一类别与纵向网络中样本图像的原始类别的比对确定出正向密集特征对应的损失函数值,根据第二类别与原始类别的比对确定出逆向密集特征对应的损失函数值;
计算正向密集特征对应的损失函数值和逆向密集特征对应的损失函数值的平均值,作为第一损失函数值。
在本公开的一种示例性实施例中,根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,包括:
根据图像特征确定各横向网络对应的样本数据,样本数据包括用于表示横向网络中样本图像的类别与该横向网络的类别相同的正样本或用于表示横向网络中样本图像的类别与该横向网络的类别不相同的负样本;
若为正样本,调整用于计算第二损失函数值的权重并将正样本代入调整后的第二损失函数,以确定出第二损失函数值;若为负样本,将负样本数据代入第二损失函数,以确定出第二损失函数值。
根据本公开的第二方面,提供一种眼底图像分类方法,包括:
将眼底图像输入图像分类网络,根据图像分类网络中的横向网络预测眼底图像对应的分类;
根据图像分类网络中的纵向网络预测眼底图像对应的分类;
根据横向网络预测的分类和纵向网络预测的分类对眼底图像进行分类;
其中,图像分类网络是根据第一方面提供的一种基于人工智能的图像分类网络的训练方法训练得到的。
根据本公开的第三方面,提供一种基于人工智能的图像分类网络的训练装置,包括特征提取单元、第一网络训练单元以及第二网络训练单元,其中:
特征提取单元,用于提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征;
第一网络训练单元,用于根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值,根据第一损失函数值训练图像分类网络;其中,图像分类网络包括纵向网络和横向网络;
第二网络训练单元,用于根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,根据第二损失函数值训练图像分类网络。
在本公开的一种示例性实施例中,特征提取单元提取各横向网络中样本图像对应的图像特征的方式具体为:
特征提取单元对各横向网络中输入的样本图像进行特征处理,以得到各横向网络中样本图像对应的图像特征,特征处理包括卷积处理、池化处理和非线性激活处理。
在本公开的一种示例性实施例中,特征提取单元提取各纵向网络中样本图像对应的密集特征的方式具体为:
特征提取单元通过纵向密集连接模式将各纵向网络中样本图像对应的图像特征进行连接,并通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合,以确定出各纵向网络中样本图像对应的密集特征。
在本公开的一种示例性实施例中,特征提取单元通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合的方式具体为:
特征提取单元基于图像特征连接顺序将每个图像特征对应的矩阵与该图像特征后各图像特征对应的矩阵分别相加,得到正向密集特征;基于图像特征连接逆序将每个图像特征对应的矩阵与该图像特征后各图像特征对应的矩阵分别相加,得到逆向密集特征;其中,正向密集特征和逆向密集特征均为纵向网络中样本图像对应的密集特征。
在本公开的一种示例性实施例中,第一网络训练单元根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值的方式具体为:
第一网络训练单元根据全局池化层对正向密集特征进行分类,以确定出纵向网络中样本图像对应的第一类别;
第一网络训练单元根据全局池化层对逆向密集特征进行分类,以确定出纵向网络中样本图像对应的第二类别;
第一网络训练单元根据第一类别与纵向网络中样本图像的原始类别的比对确定出正向密集特征对应的损失函数值,根据第二类别与原始类别的比对确定出逆向密集特征对应的损失函数值;
第一网络训练单元计算正向密集特征对应的损失函数值和逆向密集特征对应的损失函数值的平均值,作为第一损失函数值。
在本公开的一种示例性实施例中,第二网络训练单元根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值的方式具体为:
第二网络训练单元根据图像特征确定各横向网络对应的样本数据,样本数据包括用于表示横向网络中样本图像的类别与该横向网络的类别相同的正样本或用于表示横向网络中样本图像的类别与该横向网络的类别不相同的负样本;
若为正样本,第二网络训练单元调整用于计算第二损失函数值的权重并将正样本代入调整后的第二损失函数,以确定出第二损失函数值;若为负样本,第二网络训练单元将负样本数据代入第二损失函数,以确定出第二损失函数值。
根据本公开的第四方面,提供一种眼底图像的分类装置,包括第一图像分类单元、第二图像分类单元以及第三图像分类单元,其中:
第一图像分类单元,用于将眼底图像输入图像分类网络,根据图像分类网络中的横向网络预测眼底图像对应的分类;
第二图像分类单元,用于根据图像分类网络中的纵向网络预测眼底图像对应的分类;
第三图像分类单元,用于根据横向网络预测的分类和纵向网络预测的分类对眼底图像进行分类;
其中,图像分类网络是根据第一方面提供的一种基于人工智能的图像分类网络的训练方法训练得到的。
根据本公开的第五方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本公开的第六方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一示例实施方式所提供的基于人工智能的图像分类网络的训练方法中,可以提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征;进而,可以根据密集特征确定纵向网络中的样本图像对应的类别(如,清晰眼底、全局曝光、局部曝光、屈光间质浑浊、大面积污损或非眼底等类别),并根据类别与纵向网络中样本图像的原始类别(如,清晰眼底)的比对确定第一损失函数值,根据第一损失函数值训练图像分类网络(如,级联耦合质控分类网络);其中,图像分类网络(如,级联耦合质控分类网络)包括纵向网络和横向网络;根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果(如,正样本或负样本),并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,根据第二损失函数值训练图像分类网络(如,级联耦合质控分类网络)。依据上述方案描述,本公开一方面能够在一定程度上克服图像处理网络识别准确率不高的问题,提升网络识别准确率;另一方面能够根据确定出的密集特征加强特征之间的差异,提升网络的分类准确率,以便智能筛除不符合规范的图像,一定程度上避免分发无价值的图像造成资源浪费的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本公开实施例的一种基于人工智能的图像分类网络的训练方法及基于人工智能的图像分类网络的训练装置的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图;
图3示意性示出了根据本公开的一个实施例的基于人工智能的图像分类网络的训练方法的流程图;
图4示意性示出了根据本公开的一个实施例的眼底图像分类方法的流程图;
图5示意性示出了根据本公开的一个实施例的六种类别的眼底图像的示意图;
图6示意性示出了根据本公开的一个实施例的级联耦合质控分类网络的框架示意图;
图7示意性示出了根据本公开的一个实施例的通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合的示意图;
图8示意性示出了根据本公开的一个实施例的横向网络对图像特征降采样的示意图;
图9示意性示出了根据本公开的一个实施例中的基于人工智能的图像分类网络的训练装置的结构框图;
图10示意性示出了根据本公开的一个实施例中的眼底图像的分类装置的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本公开实施例的一种基于人工智能的图像分类网络的训练方法及基于人工智能的图像分类网络的训练装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本公开实施例所提供的基于人工智能的图像分类网络的训练方法和眼底图像分类方法一般由服务器105执行,相应地,基于人工智能的图像分类网络的训练装置和眼底图像的分类装置一般设置于服务器105中。但本领域技术人员容易理解的是,本公开实施例所提供的基于人工智能的图像分类网络的训练方法和眼底图像分类方法也可以由终端设备101、102、103执行,相应的,基于人工智能的图像分类网络的训练装置和眼底图像的分类装置也可以设置于终端设备101、102、103中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,服务器105可以提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征,还可以根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值,根据第一损失函数值训练图像分类网络,还可以根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,根据第二损失函数值训练图像分类网络。此外,服务器105还可以将眼底图像输入图像分类网络,根据图像分类网络中的横向网络预测眼底图像对应的分类,并根据图像分类网络中的纵向网络预测眼底图像对应的分类,以及根据横向网络预测的分类和纵向网络预测的分类对眼底图像进行分类。
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的方法和装置中限定的各种功能。在一些实施例中,计算机系统200还可以包括AI(ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
在一些实施例中,计算机系统200还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
语音技术(Speech Technology)的关键技术有自动语音识别技术(ASR)和语音合成技术(TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
在早期的传统机器学习时代,人们需要精心设计网络参数,以缩短神经网络预测的结果与真实结果之间的差异。而在当前的机器学习时代,人们可以使得神经网络根据每次的预测结果与目标结果的比对去自动优化网络参数,在很多场景中已不再需要对网络参数进行精心设计。
以下对本公开实施例的技术方案进行详细阐述:
随着中国人口的不断增长和人口老龄化的加剧,眼健康形式日趋严重。据统计,超过50%的人没有接受过常规眼科检查,超过90%的人发病后才接受治疗。例如,中国约有1.1亿糖尿病患者,其中,由此引起的视网膜病变的患者超过4000万,而此类病变若不及早干预治疗,后期很容易导致失明。如能在发病早期进行定期的眼科检查,失明风险可降低94.4%。
随着医疗图像深度学习技术的发展,全自动眼底AI筛查系统需求日益显著。在通过AI筛查系统对眼底图像进行筛查之前,需要对其中的图像识别网络进行训练,传统的网络训练方式为通过有监督的方式对网络进行训练,如,给予网络样本图像,以使得网络根据样本图像学习相应的特征。但是,随着输入网络的图像的多样化,传统的训练方式的网络识别准确率有所降低,这样会导致对待检测的眼底图像中的曝光不准、污损等废片的检出率不高,进而导致眼底图像中的病灶识别准确率下降。
基于上述一个或多个问题,本示例实施方式提供了一种基于人工智能的图像分类网络的训练方法。该基于人工智能的图像分类网络的训练方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不做特殊限定。参考图3所示,该基于人工智能的图像分类网络的训练方法可以包括以下步骤S310至步骤S330:
步骤S310:提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征。
步骤S320:根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值,根据第一损失函数值训练图像分类网络;其中,图像分类网络包括纵向网络和横向网络。
步骤S330:根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,根据第二损失函数值训练图像分类网络。
本示例实施方式中,步骤S310~步骤S330的执行顺序不作限定,具体可以理解为:步骤S320可以在步骤S330之前也可以在步骤S330之后。
在本公开的一示例实施方式所提供的基于人工智能的图像分类网络的训练方法中,可以提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征;进而,可以根据密集特征确定纵向网络中的样本图像对应的类别(如,清晰眼底、全局曝光、局部曝光、屈光间质浑浊、大面积污损或非眼底等类别),并根据类别与纵向网络中样本图像的原始类别(如,清晰眼底)的比对确定第一损失函数值,根据第一损失函数值训练图像分类网络(如,级联耦合质控分类网络);其中,图像分类网络(如,级联耦合质控分类网络)包括纵向网络和横向网络;根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果(如,正样本或负样本),并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,根据第二损失函数值训练图像分类网络(如,级联耦合质控分类网络)。依据上述方案描述,本公开一方面能够在一定程度上克服图像处理网络识别准确率不高的问题,提升网络识别准确率;另一方面能够根据确定出的密集特征加强特征之间的差异,提升网络的分类准确率,以便智能筛除不符合规范的图像,一定程度上避免分发无价值的图像造成资源浪费的问题。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S310中,提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征。
本示例实施方式中,样本图像可以为眼底图像也可以为其他图像,本公开的实施例不作限定。样本图像的存储格式可以为jpg、png等图片格式中任一种,本公开的实施例不作限定。
本示例实施方式中,横向网络和纵向网络可以采用DenseNet,DenseNet提出了一个相较ResNet更激进的密集连接机制,即,互相连接所有的层,具体来说,就是每个层都会接受其前面所有层作为其额外的输入。DenseNet用于通过增加网络的深度提升网络性能,由于传统网络的训练大多都存在“梯度消失”的问题,这会使得网络在计算反向传播时梯度为0,导致无法进行回传,进而造成网络训练失败。因此,DenseNet提出前面所有层与后面层进行密集连接,这样可以加强训练过程中梯度的反向传播,通过特征在网络通道上的连接来实现特征重用,以训练出更深的CNN网络。
本示例实施方式中,密集特征可以理解为纵向网络中各层与其顺序位之前的每一层进行融合得到的结果。
本示例实施方式中,横向网络的数量为至少两个,纵向网络的数量也为至少两个,横向网络和纵向网络之间模块共用。此外,输入各横向网络的样本图像为同一样本图像。
本示例实施方式中,步骤S310之前,还可以包括以下步骤:
检测到输入的样本图像,对样本图像进行预处理:其中,预处理至少可以包括图像格式化,以及根据横向网络的数量确定出相同数量的样本图像;将预处理后的样本图像输入各横向网络,以使得各横向网络对样本图像进行特征提取。
本示例实施方式中,可选的,提取各横向网络中样本图像对应的图像特征的方式具体为:
对各横向网络中输入的样本图像进行特征处理,以得到各横向网络中样本图像对应的图像特征,特征处理包括卷积处理、池化处理和非线性激活处理。
本示例实施方式中,可选的,提取各纵向网络中样本图像对应的密集特征的方式具体为:
通过纵向密集连接模式将各纵向网络中样本图像对应的图像特征进行连接,并通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合,以确定出各纵向网络中样本图像对应的密集特征。
进一步可选的,通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合,包括:
基于图像特征连接顺序将每个图像特征对应的矩阵与该图像特征后各图像特征对应的矩阵分别相加,得到正向密集特征;基于图像特征连接逆序将每个图像特征对应的矩阵与该图像特征后各图像特征对应的矩阵分别相加,得到逆向密集特征;其中,正向密集特征和逆向密集特征均为样本图像对应的密集特征。
由于越底层的网络相似性越高,强行使底层特征差异化会导致网络性能急剧下降,因此,本公开的实施例在第一纵向网络和第二纵向网络不适用密集连接模式,在第三纵向网络及之后的纵向网络可以使用密集连接模式,这样可以一定程度上保证每个尺度上的特征差异最大化。
本示例实施方式中,得到正向密集特征和逆向密集特征的方式也可以是通过通道叠加得到,本公开的实施例不作限定。
可见,实施该可选的实施例,能够通过正向图像融合方式和反向图像融合方式得到样本图像对应的密集特征,以减少特征图连接顺序对密集特征的影响,进而减少对于训练图像分类网络时的影响。
在步骤S320中,根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值,根据第一损失函数值训练图像分类网络;其中,图像分类网络包括纵向网络和横向网络。
本公开的实施例可以应用于眼底视网膜病变智能系统,以用于筛查白内障患者以及图像质量分类,进而提升眼底系统各个模块的算法性能,同时也可以应用于指导相关人员进行数据采集以及嵌入眼底图像标注平台中,辅助平台数据库建设,智能筛除不符合规范的图像,避免分发无价值的图像造成资源浪费。
本示例实施方式中,原始类别即为样本图像原本所属的类别,如清晰眼底图像类别。此外,类别可以包括清晰眼底图像、大面积污损图像、全局曝光图像、局部曝光图像、非眼底图像以及屈光间质浑浊图像等,本公开的实施例不作限定。
本示例实施方式中,可选的,根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值,包括:
根据全局池化层对正向密集特征进行分类,以确定出纵向网络中样本图像对应的第一类别(如,清晰眼底图像类别);
根据全局池化层对逆向密集特征进行分类,以确定出纵向网络中样本图像对应的第二类别(如,局部曝光图像类别);
根据第一类别与纵向网络中样本图像的原始类别(如,清晰眼底图像类别)的比对确定出正向密集特征对应的损失函数值,根据第二类别与原始类别的比对确定出逆向密集特征对应的损失函数值;
计算正向密集特征对应的损失函数值和逆向密集特征对应的损失函数值的平均值,作为第一损失函数值。
本示例实施方式中,第一损失函数值对应的第一损失函数可以为交叉熵损失函数(Cross-Entropy Loss),交叉熵用于描述两个概率分布之间的距离,交叉熵越小说明两者之间越接近。
可见,实施该可选的实施例,能够通过正反向连接求损失平均的方式对图像分类网络进行训练,改善了网络训练效果,进而提升网络对于图像分类的准确率。
在步骤S330中,根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,根据第二损失函数值训练图像分类网络。
本示例实施方式中,标注结果可以为正样本或负样本。此外,第二损失函数值对应的第二损失函数可以为Unbalance Focal Loss()。
本示例实施方式中,可选的,根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,包括:
根据图像特征确定各横向网络对应的样本数据,样本数据包括用于表示样本图像的类别与该横向网络的类别相同的正样本或用于表示样本图像的类别与该横向网络的类别不相同的负样本;
若为正样本,调整用于计算第二损失函数值的权重并将正样本代入调整后的第二损失函数,以确定出第二损失函数值;若为负样本,将负样本数据代入第二损失函数,以确定出第二损失函数值。
本示例实施方式中,若预测到的输入的样本图像的类别与其原始类别相同时,将其对应的样本数据标注为正样本,其他横向网络的样本数据标注为负样本。
本示例实施方式中,由于各个类别的正负样本比例不均衡,部分类别样本数量较少,这样会导致网络容易在特定类别上过拟合,还会使得网络对比例少的类别学习困难。因此本方案提出一种不均衡的Focal Loss函数,用于解决上述情况。Focal Loss的计算方式如下:
其中,为图8中T4的输出经过分类后的结果,yt为正负样本的标签,α和γ为损失函数参数,通过调节α和γ可以调整样本参数;其中,正样本为1,负样本为0。
如果趋于1,f(yt)趋于0,该样本则为非困难样本,需要削弱该样本对于损失函数的贡献;相反,如果趋于0,f(yt)趋于αt,该样本则为困难样本,需要加强该样本对于损失函数的贡献。通过Focal Loss可以大幅度减少网络对于困难样本的学习问题,而过拟合的情况可以采用动态调整γ的形式进行改进。Focal Loss默认采用α=0.25,γ=2,而在Unbalance Focal Loss中需要对于正负样本采用如下处理方式:
当yt=0;
当yt=1
其中,上式给出可以为第二损失函数,其函数思想可以理解为,当网络处理正样本时可以将γ设置为1,负样本则可以采用加权的方式进行处理。
需要说明的是,上述的Focal Loss和Unbalance Focal Loss均为损失函数;其中,Focal loss用于解决目标检测中正负样本比例失衡的问题。Focal loss降低了大量简单负样本在训练中所占的权重,也可以理解为一种困难样本的挖掘。Unbalance Focal Loss用于解决正负样本比例失衡的问题以及过拟合问题。
可见,本公开的实施例可以通过Unbalance Focal Loss给正样本较大的权重,以在一定程度上解决类别样本不平衡以及类别数据过少导致的过拟合问题。
可见,实施图3所述的基于人工智能的图像分类网络的训练方法,能够在一定程度上克服图像处理网络识别准确率不高的问题,提升网络识别准确率;此外,能够根据确定出的密集特征加强特征之间的差异,提升网络的分类准确率,以便智能筛除不符合规范的图像,一定程度上避免分发无价值的图像造成资源浪费的问题。
此外,本示例实施方式还提供了一种眼底图像分类方法。该眼底图像分类方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不做特殊限定。参考图4所示,该眼底图像分类方法可以包括以下步骤S410至步骤S430:
步骤S410:将眼底图像输入图像分类网络,根据图像分类网络中的横向网络预测眼底图像对应的分类。
步骤S420:根据图像分类网络中的纵向网络预测眼底图像对应的分类。
步骤S430:根据横向网络预测的分类和纵向网络预测的分类对眼底图像进行分类。
其中,图像分类网络是根据图3提供的一种基于人工智能的图像分类网络的训练方法训练得到的。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
本示例实施方式中,输入的眼底图像可以属于清晰眼底图像、大面积污损图像、全局曝光图像、局部曝光图像、非眼底图像以及屈光间质浑浊图像等类别中任一类别,本公开的实施例不作限定。
本示例实施方式中,横向网络和纵向网络可以为DenseNet。在纵向网络中,可以通过基于尺度的层次密集连接正反向深监督结构扩大特征之间的差异。此外,图像分类网络中的横向网络可以是通过Cross-Entropy Loss训练得到的,图像分类网络中的纵向网络可以是通过Unbalance Focal Loss训练得到的。
可见,图4所示的眼底图像分类方法,能够通过纵向密集连接的方式确定密集特征,即,利用基于尺度的层次密集连接正反向深监督结构扩大特征之间的差异,提升对于图像类别识别的准确率;进而,能够通过Unbalance Focal Loss解决部分类别占比较小从而对整体结果影响较小的问题以及过拟合问题,对不同质量图像的信息进行定量化评估。当本公开的实施例应用于眼底图像识别时,还可以提升眼底图像的识别准确率,提升筛选出的眼底图像的质量,进而为医生提供AI诊断的置信度,减少废片的产生。
请参阅图5,图5示意性示出了根据本公开的一个实施例的六种类别的眼底图像的示意图。图5示出了清晰眼底图像501、大面积污损图像502、全局曝光图像503、局部曝光图像504、非眼底图像505以及屈光间质浑浊图像506。除了图5示出的六种类别的眼底图像,本公开的实施例还可以应用于对其他类别的眼底图像或非眼底图像的识别,本公开的实施例不作限定。
其中,本公开实施例中各横向网络可以分别对应一种类别的眼底图像,举例来说,第一横向网络用于识别清晰眼底图像501,第二横向网络用于识别大面积污损图像502,第三横向网络用于识别全局曝光图像503,第四横向网络用于识别局部曝光图像504,第五横向网络用于识别非眼底图像505,第六横向网络用于识别屈光间质浑浊图像506。其中,若输入的图像为清晰眼底图像501,那么,输入的该图像经过各横向网络进行图像处理、识别之后,除了第一横向网络输出的识别结果为正样本,其余各横向网络输出的识别结果均为负样本。可以理解为,输入的图像属于哪一类别,该类别对应的网络将输出正样本的识别结果,该图像属于该类别则说明该图像不会属于其他类别,那么,其他类别分别对应的网络将输出负样本的识别结果。
结合图5所示的六种类别的眼底图像的示意图,请参阅图6,图6示意性示出了根据本公开的一个实施例的级联耦合质控分类网络的框架示意图。如图5所示,级联耦合质控分类网络(即,上述实施例中的图像分类网络)包括第一纵向网络、第二纵向网络、第三纵向网络、第四纵向网络、第一横向网络、第二横向网络、第三横向网络、第四横向网络、第五横向网络以及第六横向网络。
其中,第一横向网络中包括级联结构6011、级联结构6012、级联结构6013以及级联结构6014,第二横向网络中包括级联结构6021、级联结构6022、级联结构6023以及级联结构6024,第三横向网络中包括级联结构6031、级联结构6032、级联结构6033以及级联结构6034,第四横向网络中包括级联结构6041、级联结构6042、级联结构6043以及级联结构6044,第五横向网络中包括级联结构6051、级联结构6052、级联结构6053以及级联结构6054,第六横向网络中包括级联结构6061、级联结构6062、级联结构6063以及级联结构6064;第一纵向网络中包括级联结构6011、级联结构6021、级联结构6031、级联结构6041、级联结构6051以及级联结构6061;第二纵向网络中包括级联结构6012、级联结构6022、级联结构6032、级联结构6042、级联结构6052以及级联结构6062;第三纵向网络中包括级联结构6013、级联结构6023、级联结构6033、级联结构6043、级联结构6053以及级联结构6063;第四纵向网络中包括级联结构6014、级联结构6024、级联结构6034、级联结构6044、级联结构6054以及级联结构6064。根据上述横向网络和纵向网络中的级联结构可知,横向网络和纵向网络共用同一级联结构,例如,第一横向网络与第一纵向网络共用级联结构6011。
此外,需要说明的是,参阅图6可知,纵向网络采用的是六分类标签,横向网络采用的是以各自类别为正样本的二分类标签。横向网络和纵向网络的数量均可以为至少两个,本公开的实施例不作限定。
结合图6所示的级联耦合质控分类网络的框架示意图,请参阅图7,图7示意性示出了根据本公开的一个实施例的通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合的示意图。另外,图7中的结构也可以称之为基于尺度的层次密集连接正反向深监督结构。如图7所示,图7中展示了第N纵向网络的正向图像融合和第N纵向网络的逆向图像融合;其中,由于越底层的网络相似性越高,若强行使底层特征差异化则会导致网络性能下降,因此,为了保证在每个尺度上特征差异的最大化,在第一纵向网络和第二纵向网络中不使用纵向密集连接模式,故,N为大于2的正整数。举例来说,结合图6可知,第N纵向网络可以为第三纵向网络或第四纵向网络。
其中,第N纵向网络包括级联结构7013、级联结构7023、级联结构7023、级联结构7023、级联结构7023和级联结构7023;其中,每个级联结构可以包括卷积模块、池化模块以及非线性激活模块等,本公开的实施例不作限定。需要说明的是,上述的级联结构7013、级联结构7023、级联结构7023、级联结构7023、级联结构7023和级联结构7023相当于图6中的级联结构6013、级联结构6023、级联结构6033、级联结构6043、级联结构6053以及级联结构6063。举例来说,若N为四,那么,第四纵向网络可以包括级联结构7014(未图示)、级联结构7024(未图示)、级联结构7034(未图示)、级联结构7044(未图示)、级联结构7054(未图示)以及级联结构7064(未图示),相当于图6中的级联结构6014、级联结构6024、级联结构6034、级联结构6044、级联结构6054以及级联结构6064。
此外,箭头表示跳跃连接结构,层次特征在同一尺度上短接,以减少网络在同一级别上分化出二级层级结构,为了进一步减少分化性,图6中采用了正反向连接求平均损失函数值的方式对网络进行训练,在第N纵向网络的正向图像融合中,展示的是正向图像融合方式,融合方式具体可以为:
级联结构7013对应的矩阵与级联结构7023对应的矩阵相加,得到第一融合结果;级联结构7013对应的矩阵与级联结构7033对应的矩阵相加,得到第二融合结果,级联结构7023对应的矩阵与级联结构7033对应的矩阵相加,得到第三融合结果;级联结构7013对应的矩阵与级联结构7043对应的矩阵相加,得到第四融合结果,级联结构7023对应的矩阵与级联结构7043对应的矩阵相加,得到第五融合结果,级联结构7033对应的矩阵与级联结构7043对应的矩阵相加,得到第六融合结果;级联结构7013对应的矩阵与级联结构7053对应的矩阵相加,得到第七融合结果,级联结构7023对应的矩阵与级联结构7053对应的矩阵相加,得到第八融合结果,级联结构7033对应的矩阵与级联结构7053对应的矩阵相加,得到第九融合结果,级联结构7043对应的矩阵与级联结构7053对应的矩阵相加,得到第十融合结果;级联结构7013对应的矩阵与级联结构7063对应的矩阵相加,得到第十一融合结果,级联结构7023对应的矩阵与级联结构7063对应的矩阵相加,得到第十二融合结果,级联结构7033对应的矩阵与级联结构7063对应的矩阵相加,得到第十三融合结果,级联结构7043对应的矩阵与级联结构7063对应的矩阵相加,得到第十四融合结果,级联结构7053对应的矩阵与级联结构7063对应的矩阵相加,得到第十五融合结果。进而,可以将第一融合结果~第十五融合结果输入全局池化层,并通过全连接层确定样本图像的类别,如,确定出样本图像属于清晰眼底图像501、大面积污损图像502、全局曝光图像503、局部曝光图像504、非眼底图像505以及屈光间质浑浊图像506等类别中任意一个。其中,第一融合结果~第十五融合结果相当于本公开实施例中的正向密集特征。
同理,在第N纵向网络的逆向图像融合中,展示的是逆向图像融合方式,逆向融合方式与正向图像融合方式相同,根据上述正向融合方式可知,通过逆向融合方式也可以得到十五个融合结果,进而,可以将十五个融合结果输入全局池化层,并通过全连接层确定样本图像的类别。其中,逆向融合方式对应的十五个融合结果相当于本公开实施例中的逆向密集特征。
根据第N纵向网络的正向图像融合对应的样本图像的分类和原始类别的比对可以确定出第一损失函数值(1);其中,第一损失函数值(1)可以根据交叉熵损失函数计算得到,第一损失函数值(1)相当于本公开实施例中的正向密集特征对应的损失函数值。另外,根据第N纵向网络的逆向图像融合对应的样本图像的分类和原始类别的比对可以确定出第一损失函数值(2);其中,第一损失函数值(2)也可以根据交叉熵损失函数计算得到,第一损失函数值(2)相当于本公开实施例中的逆向密集特征对应的损失函数值。进一步地,可以计算第一损失函数值(1)和第一损失函数值(2)的平均函数值,作为第一损失函数值,相当于本公开实施例中的“计算正向密集特征对应的损失函数值和逆向密集特征对应的损失函数值的平均值,作为第一损失函数值”。
结合图6所示的级联耦合质控分类网络的框架示意图,请参阅图8,图8示意性示出了根据本公开的一个实施例的横向网络对图像特征降采样的示意图。如图8所示,第N横向网络包括L1、T1、L2、T2、L3、T3、L4以及T4;其中,L1对应的编号为8011L1,T1对应的编号为8011T1、L2对应的编号为8012L1,T2对应的编号为8012T1,L3对应的编号为8013L1,T3对应的编号为8013T1,L4对应的编号为8014L1,T4对应的编号为8014T1。T1、T2、T3和T4为转换模块,L1、L2、L3和L4为特征提取模块,相当于图6中的级联结构6011、级联结构6012、级联结构6013以及级联结构6014。
具体地,可以通过L1对输入的图像进行特征提取,并将特征提取结果通过T1进行网络通道压缩和特征降采样,以得到特征降采样结果;进而通过L2对其进行特征提取并通过T2对特征提取结果进行网络通道压缩和特征降采样,以得到特征降采样结果;进而通过L3对其进行特征提取并通过T3对特征提取结果进行网络通道压缩和特征降采样,以得到特征降采样结果;进而通过L4对其进行特征提取并通过T4对特征提取结果进行网络通道压缩和特征降采样,以得到特征降采样结果,并根据降采样结果与原始类别进行比对,以确定出第二损失函数值(如,Unbalance Focal Loss),进而可以根据第二损失函数值对图像分类网络进行训练。
可见,结合图5~图8的示意图实施本公开的实施例,能够通过纵向密集连接的方式确定密集特征,即,利用基于尺度的层次密集连接正反向深监督结构扩大特征之间的差异,提升对于图像类别识别的准确率;进而,能够通过Unbalance Focal Loss解决部分类别占比较小从而对整体结果影响较小的问题以及过拟合问题,对不同质量图像的信息进行定量化评估。当本公开的实施例应用于眼底图像识别时,还可以提升眼底图像的识别准确率,提升筛选出的眼底图像的质量,进而为医生提供AI诊断的置信度,减少废片的产生。
进一步的,本示例实施方式中,还提供了一种基于人工智能的图像分类网络的训练装置。该基于人工智能的图像分类网络的训练装置可以应用于服务器或终端设备。参考图9所示,该基于人工智能的图像分类网络的训练装置900可以包括特征提取单元901、第一网络训练单元902以及第二网络训练单元903,其中:
特征提取单元901,用于提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征;
第一网络训练单元902,用于根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值,根据第一损失函数值训练图像分类网络;其中,图像分类网络包括纵向网络和横向网络;
第二网络训练单元903,用于根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值,根据第二损失函数值训练图像分类网络。
可见,实施图9所示的基于人工智能的图像分类网络的训练装置,能够在一定程度上克服图像处理网络识别准确率不高的问题,提升网络识别准确率;此外,能够根据确定出的密集特征加强特征之间的差异,提升网络的分类准确率,以便智能筛除不符合规范的图像,一定程度上避免分发无价值的图像造成资源浪费的问题。
在本公开的一种示例性实施例中,特征提取单元901提取各横向网络中样本图像对应的图像特征的方式具体为:
特征提取单元901对各横向网络中输入的样本图像进行特征处理,以得到各横向网络中样本图像对应的图像特征,特征处理包括卷积处理、池化处理和非线性激活处理。
由于越底层的网络相似性越高,强行使底层特征差异化会导致网络性能急剧下降,因此,本公开的实施例在第一纵向网络和第二纵向网络不适用密集连接模式,在第三纵向网络及之后的纵向网络可以使用密集连接模式,这样可以一定程度上保证每个尺度上的特征差异最大化。
在本公开的一种示例性实施例中,特征提取单元901提取各纵向网络中样本图像对应的密集特征的方式具体为:
特征提取单元901通过纵向密集连接模式将各纵向网络中样本图像对应的图像特征进行连接,并通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合,以确定出各纵向网络中样本图像对应的密集特征。
可见,实施该示例性实施例,能够通过正向图像融合方式和反向图像融合方式得到样本图像对应的密集特征,以减少特征图连接顺序对密集特征的影响,进而减少对于训练图像分类网络时的影响。
在本公开的一种示例性实施例中,特征提取单元901通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合的方式具体为:
特征提取单元901基于图像特征连接顺序将每个图像特征对应的矩阵与该图像特征后各图像特征对应的矩阵分别相加,得到正向密集特征;基于图像特征连接逆序将每个图像特征对应的矩阵与该图像特征后各图像特征对应的矩阵分别相加,得到逆向密集特征;其中,正向密集特征和逆向密集特征均为纵向网络中样本图像对应的密集特征。
可见,实施该可选的实施例,能够通过正反向连接求损失平均的方式对图像分类网络进行训练,改善了网络训练效果,进而提升网络对于图像分类的准确率。
在本公开的一种示例性实施例中,第一网络训练单元902根据密集特征确定纵向网络中的样本图像对应的类别,并根据类别与纵向网络中样本图像的原始类别的比对确定第一损失函数值的方式具体为:
第一网络训练单元902根据全局池化层对正向密集特征进行分类,以确定出纵向网络中样本图像对应的第一类别;
第一网络训练单元902根据全局池化层对逆向密集特征进行分类,以确定出纵向网络中样本图像对应的第二类别;
第一网络训练单元902根据第一类别与纵向网络中样本图像的原始类别的比对确定出正向密集特征对应的损失函数值,根据第二类别与原始类别的比对确定出逆向密集特征对应的损失函数值;
第一网络训练单元902计算正向密集特征对应的损失函数值和逆向密集特征对应的损失函数值的平均值,作为第一损失函数值。
进一步地,第二网络训练单元903根据图像特征确定各横向网络对应的用于表示横向网络中样本图像所属类别的标注结果,并根据标注结果与原始类别的二分类别的比对确定第二损失函数值的方式具体为:
第二网络训练单元903根据图像特征确定各横向网络对应的样本数据,样本数据包括用于表示横向网络中样本图像的类别与该横向网络的类别相同的正样本或用于表示横向网络中样本图像的类别与该横向网络的类别不相同的负样本;
若为正样本,第二网络训练单元903调整用于计算第二损失函数值的权重并将正样本代入调整后的第二损失函数,以确定出第二损失函数值;若为负样本,第二网络训练单元903将负样本数据代入第二损失函数,以确定出第二损失函数值。
可见,实施该可选的实施例,在一定程度上解决类别样本不平衡以及类别数据过少导致的过拟合问题。
更进一步的,本示例实施方式中,还提供了一种眼底图像的分类装置。该眼底图像的分类装置可以应用于一服务器或终端设备。参考图10所示,该眼底图像的分类装置1000可以包括第一图像分类单元1001、第二图像分类单元1002以及第三图像分类单元1003,其中:
第一图像分类单元1001,用于将眼底图像输入图像分类网络,根据图像分类网络中的横向网络预测眼底图像对应的分类;
第二图像分类单元1002,用于根据图像分类网络中的纵向网络预测眼底图像对应的分类;
第三图像分类单元1003,用于根据横向网络预测的分类和纵向网络预测的分类对眼底图像进行分类;
其中,图像分类网络是根据图3提供的一种基于人工智能的图像分类网络的训练方法训练得到的。
可见,实施图10所示的眼底图像的分类装置,能够通过纵向密集连接的方式确定密集特征,即,利用基于尺度的层次密集连接正反向深监督结构扩大特征之间的差异,提升对于图像类别识别的准确率;进而,能够通过Unbalance Focal Loss解决部分类别占比较小从而对整体结果影响较小的问题以及过拟合问题,对不同质量图像的信息进行定量化评估。当本公开的实施例应用于眼底图像识别时,还可以提升眼底图像的识别准确率,提升筛选出的眼底图像的质量,进而为医生提供AI诊断的置信度,减少废片的产生。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
由于本公开的示例实施例的基于人工智能的图像分类网络的训练装置的各个功能模块与上述基于人工智能的图像分类网络的训练方法的示例实施例的步骤对应,因此对于本公开装置实施例中未披露的细节,请参照本公开上述的基于人工智能的图像分类网络的训练方法的实施例。
由于本公开的示例实施例的眼底图像的分类装置的各个功能模块与上述眼底图像分类方法的示例实施例的步骤对应,因此对于本公开装置实施例中未披露的细节,请参照本公开上述的眼底图像分类方法的实施例。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种基于人工智能的图像分类网络的训练方法,其特征在于,包括:
提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征;
根据所述密集特征确定所述纵向网络中样本图像对应的类别,并根据所述类别与所述纵向网络中样本图像的原始类别的比对确定第一损失函数值,根据所述第一损失函数值训练所述图像分类网络;其中,所述图像分类网络包括所述纵向网络和所述横向网络;
根据所述图像特征确定各所述横向网络对应的用于表示所述横向网络中样本图像所属类别的标注结果,并根据所述标注结果与所述原始类别的二分类别的比对确定第二损失函数值,根据所述第二损失函数值训练所述图像分类网络。
2.根据权利要求1所述的方法,其特征在于,提取各横向网络中样本图像对应的图像特征,包括:
对各横向网络中输入的样本图像进行特征处理,以得到各所述横向网络中样本图像对应的图像特征,所述特征处理包括卷积处理、池化处理和非线性激活处理。
3.根据权利要求1所述的方法,其特征在于,提取各纵向网络中样本图像对应的密集特征,包括:
通过纵向密集连接模式将各纵向网络中样本图像对应的图像特征进行连接,并通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合,以确定出各所述纵向网络中样本图像对应的密集特征。
4.根据权利要求3所述的方法,其特征在于,通过正向图像融合方式和反向图像融合方式对连接后的图像特征进行融合,包括:
基于图像特征连接顺序将每个图像特征对应的矩阵与该所述图像特征后各图像特征对应的矩阵分别相加,得到正向密集特征;基于图像特征连接逆序将每个图像特征对应的矩阵与该所述图像特征后各图像特征对应的矩阵分别相加,得到逆向密集特征;其中,所述正向密集特征和所述逆向密集特征均为所述纵向网络中样本图像对应的密集特征。
5.根据权利要求4所述的方法,其特征在于,根据所述密集特征确定所述纵向网络中样本图像对应的类别,并根据所述类别与所述纵向网络中样本图像的原始类别的比对确定第一损失函数值,包括:
根据全局池化层对所述正向密集特征进行分类,以确定出所述纵向网络中样本图像对应的第一类别;
根据所述全局池化层对逆向密集特征进行分类,以确定出所述纵向网络中样本图像对应的第二类别;
根据所述第一类别与所述纵向网络中样本图像的原始类别的比对确定出所述正向密集特征对应的损失函数值,根据所述第二类别与所述原始类别的比对确定出所述逆向密集特征对应的损失函数值;
计算所述正向密集特征对应的损失函数值和所述逆向密集特征对应的损失函数值的平均值,作为第一损失函数值。
6.根据权利要求1所述的方法,其特征在于,根据所述图像特征确定各所述横向网络对应的用于表示所述横向网络中样本图像所属类别的标注结果,并根据所述标注结果与所述原始类别的二分类别的比对确定第二损失函数值,包括:
根据所述图像特征确定各所述横向网络对应的样本数据,所述样本数据包括用于表示所述横向网络中样本图像的类别与该所述横向网络的类别相同的正样本或用于表示所述横向网络中样本图像的类别与该所述横向网络的类别不相同的负样本;
若为所述正样本,调整用于计算第二损失函数值的权重并将正样本代入调整后的第二损失函数,以确定出第二损失函数值;若为所述负样本,将负样本数据代入第二损失函数,以确定出第二损失函数值。
7.一种眼底图像分类方法,其特征在于,包括:
将眼底图像输入图像分类网络,根据所述图像分类网络中的横向网络预测所述眼底图像对应的分类;
根据所述图像分类网络中的纵向网络预测所述眼底图像对应的分类;
根据所述横向网络预测的分类和所述纵向网络预测的分类对所述眼底图像进行分类;
其中,所述图像分类网络是根据权利要求1~6任一项所述的方法训练得到的。
8.一种基于人工智能的图像分类网络的训练装置,其特征在于,包括:
特征提取单元,用于提取各横向网络中样本图像对应的图像特征以及提取各纵向网络中样本图像对应的密集特征;
第一网络训练单元,用于根据所述密集特征确定所述纵向网络中的所述样本图像对应的类别,并根据所述类别与所述纵向网络中样本图像的原始类别的比对确定第一损失函数值,根据所述第一损失函数值训练所述图像分类网络;其中,所述图像分类网络包括所述纵向网络和所述横向网络;
第二网络训练单元,用于根据所述图像特征确定各所述横向网络对应的用于表示所述横向网络中样本图像所属类别的标注结果,并根据所述标注结果与所述原始类别的二分类别的比对确定第二损失函数值,根据所述第二损失函数值训练所述图像分类网络。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910741377.5A CN110490242B (zh) | 2019-08-12 | 2019-08-12 | 图像分类网络的训练方法、眼底图像分类方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910741377.5A CN110490242B (zh) | 2019-08-12 | 2019-08-12 | 图像分类网络的训练方法、眼底图像分类方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110490242A true CN110490242A (zh) | 2019-11-22 |
CN110490242B CN110490242B (zh) | 2024-03-29 |
Family
ID=68550669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910741377.5A Active CN110490242B (zh) | 2019-08-12 | 2019-08-12 | 图像分类网络的训练方法、眼底图像分类方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490242B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929807A (zh) * | 2019-12-06 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 图像分类模型的训练方法、图像分类方法及装置 |
CN111275175A (zh) * | 2020-02-20 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 神经网络训练方法、装置、图像分类方法、设备和介质 |
CN111966831A (zh) * | 2020-08-18 | 2020-11-20 | 创新奇智(上海)科技有限公司 | 一种模型训练方法、文本分类方法、装置及网络模型 |
CN112183673A (zh) * | 2020-11-06 | 2021-01-05 | 携程计算机技术(上海)有限公司 | 天气时段分类方法、系统、设备及存储介质 |
CN112580589A (zh) * | 2020-12-28 | 2021-03-30 | 国网上海市电力公司 | 基于双流法考虑非均衡数据的行为识别方法、介质及设备 |
CN112767329A (zh) * | 2021-01-08 | 2021-05-07 | 北京安德医智科技有限公司 | 图像处理方法及装置、电子设备 |
WO2021169473A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳前海微众银行股份有限公司 | 模型性能优化方法、装置、设备及存储介质 |
CN113449781A (zh) * | 2021-06-17 | 2021-09-28 | 上海深至信息科技有限公司 | 一种甲状腺结节分类模型的生成方法及系统 |
CN113918720A (zh) * | 2021-10-29 | 2022-01-11 | 平安普惠企业管理有限公司 | 文本分类模型的训练方法、装置、设备及存储介质 |
CN115082740A (zh) * | 2022-07-18 | 2022-09-20 | 北京百度网讯科技有限公司 | 目标检测模型训练方法、目标检测方法、装置、电子设备 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110257545A1 (en) * | 2010-04-20 | 2011-10-20 | Suri Jasjit S | Imaging based symptomatic classification and cardiovascular stroke risk score estimation |
US8485975B2 (en) * | 2010-06-07 | 2013-07-16 | Atheropoint Llc | Multi-resolution edge flow approach to vascular ultrasound for intima-media thickness (IMT) measurement |
US8532360B2 (en) * | 2010-04-20 | 2013-09-10 | Atheropoint Llc | Imaging based symptomatic classification using a combination of trace transform, fuzzy technique and multitude of features |
WO2018007330A1 (en) * | 2016-07-08 | 2018-01-11 | Jaguar Land Rover Limited | Method and system for evaluating a difficulty rating of an off-road route traversed by a vehicle |
CN107609598A (zh) * | 2017-09-27 | 2018-01-19 | 武汉斗鱼网络科技有限公司 | 图像鉴别模型训练方法、装置及可读存储介质 |
CN107895385A (zh) * | 2017-11-06 | 2018-04-10 | 中共中央办公厅电子科技学院 | 基于卷积神经网络的对单张室外图像太阳位置的预测方法 |
CN107944363A (zh) * | 2017-11-15 | 2018-04-20 | 北京达佳互联信息技术有限公司 | 人脸图像处理方法、系统及服务器 |
CN108197538A (zh) * | 2017-12-21 | 2018-06-22 | 浙江银江研究院有限公司 | 一种基于局部特征和深度学习的卡口车辆检索系统及方法 |
CN108846446A (zh) * | 2018-07-04 | 2018-11-20 | 国家新闻出版广电总局广播科学研究院 | 基于多路径密集特征融合全卷积网络的目标检测方法 |
CN108875934A (zh) * | 2018-05-28 | 2018-11-23 | 北京旷视科技有限公司 | 一种神经网络的训练方法、装置、系统及存储介质 |
US20190049540A1 (en) * | 2017-08-10 | 2019-02-14 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
CN109523018A (zh) * | 2019-01-08 | 2019-03-26 | 重庆邮电大学 | 一种基于深度迁移学习的图片分类方法 |
US20190175089A1 (en) * | 2013-03-13 | 2019-06-13 | George S. Cembrowski | Method and apparatus for inversion detection |
US20190205606A1 (en) * | 2016-07-21 | 2019-07-04 | Siemens Healthcare Gmbh | Method and system for artificial intelligence based medical image segmentation |
CN110060248A (zh) * | 2019-04-22 | 2019-07-26 | 哈尔滨工程大学 | 基于深度学习的声呐图像水下管道检测方法 |
CN110059744A (zh) * | 2019-04-16 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 训练神经网络的方法、图像处理的方法、设备及存储介质 |
-
2019
- 2019-08-12 CN CN201910741377.5A patent/CN110490242B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8532360B2 (en) * | 2010-04-20 | 2013-09-10 | Atheropoint Llc | Imaging based symptomatic classification using a combination of trace transform, fuzzy technique and multitude of features |
US20110257545A1 (en) * | 2010-04-20 | 2011-10-20 | Suri Jasjit S | Imaging based symptomatic classification and cardiovascular stroke risk score estimation |
US8485975B2 (en) * | 2010-06-07 | 2013-07-16 | Atheropoint Llc | Multi-resolution edge flow approach to vascular ultrasound for intima-media thickness (IMT) measurement |
US20190175089A1 (en) * | 2013-03-13 | 2019-06-13 | George S. Cembrowski | Method and apparatus for inversion detection |
WO2018007330A1 (en) * | 2016-07-08 | 2018-01-11 | Jaguar Land Rover Limited | Method and system for evaluating a difficulty rating of an off-road route traversed by a vehicle |
US20190205606A1 (en) * | 2016-07-21 | 2019-07-04 | Siemens Healthcare Gmbh | Method and system for artificial intelligence based medical image segmentation |
US20190049540A1 (en) * | 2017-08-10 | 2019-02-14 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
CN107609598A (zh) * | 2017-09-27 | 2018-01-19 | 武汉斗鱼网络科技有限公司 | 图像鉴别模型训练方法、装置及可读存储介质 |
CN107895385A (zh) * | 2017-11-06 | 2018-04-10 | 中共中央办公厅电子科技学院 | 基于卷积神经网络的对单张室外图像太阳位置的预测方法 |
CN107944363A (zh) * | 2017-11-15 | 2018-04-20 | 北京达佳互联信息技术有限公司 | 人脸图像处理方法、系统及服务器 |
CN108197538A (zh) * | 2017-12-21 | 2018-06-22 | 浙江银江研究院有限公司 | 一种基于局部特征和深度学习的卡口车辆检索系统及方法 |
CN108875934A (zh) * | 2018-05-28 | 2018-11-23 | 北京旷视科技有限公司 | 一种神经网络的训练方法、装置、系统及存储介质 |
CN108846446A (zh) * | 2018-07-04 | 2018-11-20 | 国家新闻出版广电总局广播科学研究院 | 基于多路径密集特征融合全卷积网络的目标检测方法 |
CN109523018A (zh) * | 2019-01-08 | 2019-03-26 | 重庆邮电大学 | 一种基于深度迁移学习的图片分类方法 |
CN110059744A (zh) * | 2019-04-16 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 训练神经网络的方法、图像处理的方法、设备及存储介质 |
CN110060248A (zh) * | 2019-04-22 | 2019-07-26 | 哈尔滨工程大学 | 基于深度学习的声呐图像水下管道检测方法 |
Non-Patent Citations (3)
Title |
---|
RENXIANG ZHU ET.AL: "Integrating Five Feature Types Extracted From Ultrasonograms to Improve the Prediction of Thyroid Papillary Carcinoma", IEEE * |
施方迤;汪子扬;梁军;: "基于半监督密集阶梯网络的工业故障识别", 化工学报, no. 07, 9 May 2018 (2018-05-09) * |
高琳琳: "面向脑部医学图像的频繁近似子图挖掘与分类方法的研究", 中国优秀硕士学位论文全文数据库 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929807A (zh) * | 2019-12-06 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 图像分类模型的训练方法、图像分类方法及装置 |
CN111275175A (zh) * | 2020-02-20 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 神经网络训练方法、装置、图像分类方法、设备和介质 |
CN111275175B (zh) * | 2020-02-20 | 2024-02-02 | 腾讯科技(深圳)有限公司 | 神经网络训练方法、装置、图像分类方法、设备和介质 |
WO2021169473A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳前海微众银行股份有限公司 | 模型性能优化方法、装置、设备及存储介质 |
CN111966831A (zh) * | 2020-08-18 | 2020-11-20 | 创新奇智(上海)科技有限公司 | 一种模型训练方法、文本分类方法、装置及网络模型 |
CN112183673A (zh) * | 2020-11-06 | 2021-01-05 | 携程计算机技术(上海)有限公司 | 天气时段分类方法、系统、设备及存储介质 |
CN112580589A (zh) * | 2020-12-28 | 2021-03-30 | 国网上海市电力公司 | 基于双流法考虑非均衡数据的行为识别方法、介质及设备 |
CN112767329A (zh) * | 2021-01-08 | 2021-05-07 | 北京安德医智科技有限公司 | 图像处理方法及装置、电子设备 |
CN112767329B (zh) * | 2021-01-08 | 2021-09-10 | 北京安德医智科技有限公司 | 图像处理方法及装置、电子设备 |
CN113449781A (zh) * | 2021-06-17 | 2021-09-28 | 上海深至信息科技有限公司 | 一种甲状腺结节分类模型的生成方法及系统 |
CN113918720A (zh) * | 2021-10-29 | 2022-01-11 | 平安普惠企业管理有限公司 | 文本分类模型的训练方法、装置、设备及存储介质 |
CN115082740A (zh) * | 2022-07-18 | 2022-09-20 | 北京百度网讯科技有限公司 | 目标检测模型训练方法、目标检测方法、装置、电子设备 |
CN115082740B (zh) * | 2022-07-18 | 2023-09-01 | 北京百度网讯科技有限公司 | 目标检测模型训练方法、目标检测方法、装置、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110490242B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490242A (zh) | 图像分类网络的训练方法、眼底图像分类方法及相关设备 | |
Cheng et al. | Facial expression recognition method based on improved VGG convolutional neural network | |
CN110490239B (zh) | 图像质控网络的训练方法、质量分类方法、装置及设备 | |
CN110083700A (zh) | 一种基于卷积神经网络的企业舆情情感分类方法及系统 | |
CN110298037A (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN109597891A (zh) | 基于双向长短时记忆神经网络的文本情感分析方法 | |
CN109117864A (zh) | 基于异构特征融合的冠心病风险预测方法、模型及系统 | |
CN107516110A (zh) | 一种基于集成卷积编码的医疗问答语义聚类方法 | |
CN112541501B (zh) | 一种基于视觉语言建模网络的场景文字识别方法 | |
CN106503723A (zh) | 一种视频分类方法及装置 | |
CN108806792A (zh) | 深度学习面诊系统 | |
CN109711426A (zh) | 一种基于gan和迁移学习的病理图片分类装置及方法 | |
CN104881683A (zh) | 基于组合分类器的白内障眼底图像分类方法及分类装置 | |
CN109344888A (zh) | 一种基于卷积神经网络的图像识别方法、装置及设备 | |
CN109544518A (zh) | 一种应用于骨骼成熟度评估的方法及其系统 | |
US20210406687A1 (en) | Method for predicting attribute of target object based on machine learning and related device | |
CN110516791A (zh) | 一种基于多重注意力的视觉问答方法及系统 | |
CN109102498A (zh) | 一种宫颈涂片图像中簇型细胞核分割的方法 | |
CN110276248A (zh) | 一种基于样本权值分配和深度学习的人脸表情识别方法 | |
CN110414607A (zh) | 胶囊内窥镜图像的分类方法、装置、设备及介质 | |
CN106909938A (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
CN110008961A (zh) | 文字实时识别方法、装置、计算机设备及存储介质 | |
CN113610118B (zh) | 一种基于多任务课程式学习的青光眼诊断方法、装置、设备及方法 | |
CN108416397A (zh) | 一种基于ResNet-GCN网络的图像情感分类方法 | |
CN110443105A (zh) | 自体免疫抗体的免疫荧光影像型态识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |