CN113269257A - 一种图像分类方法、装置、终端设备及存储介质 - Google Patents
一种图像分类方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN113269257A CN113269257A CN202110584208.2A CN202110584208A CN113269257A CN 113269257 A CN113269257 A CN 113269257A CN 202110584208 A CN202110584208 A CN 202110584208A CN 113269257 A CN113269257 A CN 113269257A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- classification
- sample
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Abstract
本发明公开了一种图像分类方法、装置、终端设备及存储介质,包括:获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签;根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型;获取待识别图像;将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标;根据所述目标区域的类别概率,确定所述待识别图像的分类结果。本发明提高了图像获取的准确性,适用于不同制片方式的图像,减少了工作量。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像分类方法、装置、终端设备及存储介质。
背景技术
随着医疗数字化的发展,现代医院逐渐推进在计算机上通过数字图像进行诊断,以取代在显微镜下直接对细胞涂片进行观察和诊断的传统方法。数字病理全切片是通过专用的扫描成像系统将病理切片转换为可供计算机显示、传输及处理的高倍率大规模数字图像。随着数字病理图像成像技术不断成熟,基于数字病理图像的计算机辅助诊断方法发展迅速。近年来,以卷积神经元网络(convolutional neural network,简称CNN)为代表的深度学习方法成为了病理图像检测分类的主流方法。现有技术中,采用卷积神经元网络进行病理图像的分割、分类和识别等。但由于针对不同制片方式,数字病理全切片图像具有差异,且训练数据不足,限制了采用卷积神经元网络进行深度学习方法的分类结果,导致图像处理得到的结果与实际结果偏差较大。
发明内容
本发明实施例提供一种图像分类方法、装置、终端设备及存储介质,通过训练好的深度卷积神经网络对图像数据进行图像分析检测,提高图像获取的准确性,适用于不同制片方式的图像,减少了工作量。
本发明一实施例提供一种图像分类方法,包括:
获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签;
根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型;
获取待识别图像;
将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标;
根据所述目标区域的类别概率,确定所述待识别图像的分类结果。
作为上述方案的改进,所述将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标,包括:
将所述待识别图像输入到所述特征提取模型进行抽象特征的提取,输出特征张量;
基于所述区域选取模型对所述特征张量进行滑窗分类和物体边界框坐标回归,识别出所述待识别图像中的感兴趣区域包含目标区域的概率及所述目标区域的位置和尺寸;
将所述概率及所述目标区域的位置和尺寸输入到所述分类模型,得到所述目标区域的类别概率和相对位置坐标。
作为上述方案的改进,通过如下步骤获取图像样本,包括:
根据预先定义的感兴趣区域特征及目标区域特征,分割出预先采集的图像中的感兴趣区域及其中的目标区域,并标注所述目标区域的标注框坐标和类别标签,以构成图像数据集;
对所述图像数据集进行归一化处理;
将归一化处理得到的图像数据集划分为训练图像样本、验证图像样本和测试图像样本;
对所述训练图像样本进行数据增强;
将数据增强后的训练图像样本、验证图像样本和测试图像样本组织成所述图像样本。
作为上述方案的改进,所述对所述图像数据集进行归一化处理,包括:
读取所述图像数据集中各图像的微米每像素参数及原行(列)像素参数;
根据所述微米每像素参数,通过双线性插值法对所述图像数据集进行缩放;其中,通过如下公式(1)进行缩放:
c=a*b/mpp (1)
a为归一化参数,b为原行(列)像素参数,c为目标行(列)像素参数,mpp为微米每像素参数;
所述对所述训练图像样本进行数据增强,包括:
随机对所述训练图像样本进行垂直或水平镜像,并将所述训练图像样本与镜像处理得到的训练图像样本组织成第一训练图像集;
对所述第一训练图像集进行顺时针翻转,并将所述第一训练图像集与翻转后的第一训练图像集组织成数据增强后的训练图像样本。
作为上述方案的改进,所述根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,具体包括:
利用随机梯度下降反向传播的方式,将所述数据增强后的训练图像样本作为预先建立的深度卷积神经网络的输入,基于所述深度卷积神经网络的输出结果进行训练;
将所述验证图像样本对训练得到的深度卷积神经网络进行参数调优;
将所述测试图像样本输入到调优得到的深度卷积神经网络进行测试,得到图像识别模型。
作为上述方案的改进,所述将所述验证图像样本对训练得到的深度卷积神经网络进行参数调优,包括:
将所述验证图像样本输入到训练得到的深度卷积神经网络,输出所述验证图像样本对应的目标区域相对位置坐标;
将每个验证图像样本中的图像的所有目标区域相对位置坐标叠加成该图像的目标区域定位模板;
计算图像的所述目标区域定位模板与所标注的目标区域的标注框坐标之间的定位误差,并将所述验证图像样本中各图像的定位误差叠加成验证误差集;
选取当所述验证误差集的定位误差最小时对应的模型作为调优得到的深度卷积神经网络。
作为上述方案的改进,所述根据所述目标区域的类别概率,确定所述待识别图像的分类结果,包括:
选取每一个类别中排序在前n位的目标区域的类别概率,作为分类基础数据;
根据所述分类基础数据,确定相应类别的得分值;
将所述得分值除以预设阈值,得到所述类别的分阈比;
根据所述类别的分阈比,计算所述类别的置信度;其中,通过如下公式(2)计算所述置信度:
v为所述类别的置信度,x为所述类别的分阈比;
判断所述类别的置信度是否超于预设分类阈值;若是,则认为所述分类结果为异常;否则,认为所述分类结果为正常。
本发明另一实施例对应提供了一种图像分类装置,包括:
图像样本获取模块,用于获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签;
模型训练模块,用于根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型;
待识别图像获取模块,用于获取待识别图像;
图像识别模块,用于将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标;
图像分类模块,用于根据所述目标区域的类别概率,确定所述待识别图像的分类结果。
与现有技术相比,本发明实施例公开的一种图像分类方法、装置、终端设备及存储介质,通过获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签,根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型,获取待识别图像,将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标,根据所述目标区域的类别概率,确定所述待识别图像的分类结果,这样通过训练好的深度卷积神经网络对图像数据进行图像分析检测,提高图像获取的准确性,适用于不同制片方式的图像,使得训练得到的模型具有更高的精度,实现了面对复杂图像时能够精确、有效的进行主体区域的检测、分离,减少了工作量。
本发明另一实施例提供了一种终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现上述发明实施例所述的图像分类方法。
本发明另一实施例提供了一种存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行上述发明实施例所述的图像分类方法。
附图说明
图1是本发明一实施例提供的一种图像分类方法的流程示意图;
图2是本发明一实施例提供的图像样本的示意图;
图3是本发明一实施例提供的特征提取网络的架构示意图;
图4是本发明一实施例提供的区域选取网络的架构示意图;
图5是本发明一实施例提供的分类网络的架构示意图;
图6是本发明一实施例提供的图像识别模型的结构示意图;
图7是本发明一实施例提供的一种图像分类方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明一实施例提供的一种图像分类方法的流程示意图,所述方法包括步骤S101至S105。
S101、获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签。
S102、根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型。
S103、获取待识别图像。
S104、将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标。
S105、根据所述目标区域的类别概率,确定所述待识别图像的分类结果。
需要说明的是,在医学图像中感兴趣区域通常为癌变区域,但在此不做限定。示例性的,参见图2,是本发明一实施例提供的图像样本的示意图,以尿液脱落细胞图像为例,该图像中较大框内为感兴趣区域,较小框内为目标区域,并对目标区域进行类别标签的批注,如图2所示标注为HGUC(即高级别尿路上皮癌)。其中,感兴趣区域为数量不等的宽和高为600像素的包含细胞的区域,目标区域为感兴趣区域中的异常细胞,类别标签为异常细胞类别,包括非典型尿路上皮细胞(Atypical urothelial cells,AUC)、低度尿路上皮肿瘤(LowGrade Urothelial Neoplasm,LGUN)、疑似高级别尿路上皮癌(Suspicious for HighGrade Urothelial Carcinoma,SHGUC)及高级别尿路上皮癌(High Grade UrothelialCarcinoma,HGUC)。因此,本实施例利用深度卷积神经网络高效的特征提取能力以及多样的训练数据,大大提高了针对不同制片方式的容错性;其次,通过深度卷积神经网络的目标检测模型中的区域生成网络(Region Proposal Network,RPN)方案,极大地提高了图像检测的精确度;再是,通过深度卷积神经网络的目标检测模型中的分类网络方案,有效地提升了图像分类的准确性;最后,运用本发明中设计的规则及公式,得出图像的分类结果,并拥有更高的的敏感性和特异性。
本发明实施例公开的一种图像分类方法,通过获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签,根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型,获取待识别图像,将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标,根据所述目标区域的类别概率,确定所述待识别图像的分类结果,这样通过训练好的深度卷积神经网络对图像数据进行图像分析检测,提高图像获取的准确性,适用于不同制片方式的图像,使得训练得到的模型具有更高的精度,实现了面对复杂图像时能够精确、有效的进行主体区域的检测、分离,减少了工作量。
在一些实施例中,通过如下步骤获取图像样本,包括:
根据预先定义的感兴趣区域特征及目标区域特征,分割出预先采集的图像中的感兴趣区域及其中的目标区域,并标注所述目标区域的标注框坐标和类别标签,以构成图像数据集;
对所述图像数据集进行归一化处理;
将归一化处理得到的图像数据集划分为训练图像样本、验证图像样本和测试图像样本;
对所述训练图像样本进行数据增强;
将数据增强后的训练图像样本、验证图像样本和测试图像样本组织成所述图像样本。
示例性的,请参见图2,以尿液脱落细胞图像为例,针对预先采集到的尿液脱落细胞图像,在10倍镜分辨率下选取数量不等的宽和高为600像素的包含细胞的区域作为感兴趣区域,为了使区域获得全标注,同时避免标注过度不感兴趣的区域,以便节省人力提高效率。进一步,对感兴趣区域中的异常细胞进行矩形框(即目标区域)标注,矩形框标注的轮廓需完整覆盖细胞区域。记录每个矩形框的左上及右下顶点坐标位置,并标注该矩形框对应的异常细胞类别。
在一些实施例中,所述对所述图像数据集进行归一化处理,包括:
读取所述图像数据集中各图像的微米每像素参数及原行(列)像素参数;
根据所述微米每像素参数,通过双线性插值法对所述图像数据集进行缩放;其中,通过如下公式(1)进行缩放:
c=a*b/mpp (1)
a为归一化参数,b为原行(列)像素参数,c为目标行(列)像素参数,mpp为微米每像素参数。
需要说明的是,由于选取的图像区域均采样于不同的数字图像,而这些数字图像可能由不同的扫描仪扫描成像及不同的制片方式,因不同扫描仪的硬件属性,软件参数设置的不同,每张图片单像素代表的实际物理尺寸也会有不同,数据归一化的目的在于尽可能保证使数据集中的图像具有相近的物理尺寸,使得提高了本发明的图像分类方式的适用性。模型在部署和应用场景中,也应该对输入数据进行同样的归一化处理。具体的,通过读取图像的附加信息可获得该图像的微米每像素(micron per pixel,mpp)参数,mpp代表了每个像素对应的病理切片上的实际距离,当mpp为1时代表每个像素代表的实际横或纵距离为1微米。
通过读取微米每像素参数,将数据集中的图像通过双线性插值法进行放大或缩小,从而实现数据物理尺度上的归一化。更具体的,本发明将数据集mpp参数归一化为1.0,每张图片的目标行(列)像素数由以下公式得出:
目标行(列)像素数=1.0*原行(列)像素数/mpp
在一些实施例中,所述对所述训练图像样本进行数据增强,包括:
随机对所述训练图像样本进行垂直或水平镜像,并将所述训练图像样本与镜像处理得到的训练图像样本组织成第一训练图像集;
对所述第一训练图像集进行顺时针翻转,并将所述第一训练图像集与翻转后的第一训练图像集组织成数据增强后的训练图像样本。
在本实施例中,将训练图像样本中的图像进行随机翻转,镜像等操作,实现对训练样本数据集的扩充,通过数据集扩充可以利用有限的训练数据使模型的泛化能力更强,提高了图像的准确度和鲁棒性,能有效解决现有技术中由于训练样本不足导致模型分类不准确或过拟合的问题。具体的,镜像:对训练图像样本及其标注图像同时进行随机的垂直或水平镜像,与训练图像样本汇总形成第一训练图像集;翻转:对第一训练图像集及其标注图像同时进行顺时针翻转,翻转角度为90度、180度或270度,与第一训练图像集汇总形成数据增强后的训练图像样本,用于训练深度卷积神经网络。
在一些实施例中,所述根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,具体包括:
利用随机梯度下降反向传播的方式,将所述数据增强后的训练图像样本作为预先建立的深度卷积神经网络的输入,基于所述深度卷积神经网络的输出结果进行训练;
将所述验证图像样本对训练得到的深度卷积神经网络进行参数调优;
将所述测试图像样本输入到调优得到的深度卷积神经网络进行测试,得到图像识别模型。
在本实施例中,模型训练采用深度学习中的反向传播算法,分类网络及区域选择网络的以目标真实类别向量和输入区域相对于输入张量坐标中心坐标为标签,损失函数为交叉熵函数。优选的,采用数据增强后的训练图像样本对深度卷积神经网络中的特征提取网络进行训练,采用验证图像样本对训练得到的特征提取网络进行验证,并采用测试图像样本对验证得到的特征提取网络进行测试,得到图像识别模型中的特征提取模型。具体的,特征提取网络由重复堆砌的卷积层,采样层及非线性激活层组成的神经网络架构。更具体的,参见图3,是本发明一实施例提供的特征提取网络的架构示意图,特征提取网络包括依次连接的输入层、7*7卷积层1、第一层、第二层、第三层和第四层,第一层包括依次连接的3*3池化层、1*1卷积层1、3*3卷积层2及1*1卷积层3,该层循环3次;第二层包括依次连接的1*1卷积层1、3*3卷积层2及1*1卷积层3,该层循环4次;第三层包括依次连接的1*1卷积层1、3*3卷积层2及1*1卷积层3,该层循环6次;第四层包括依次连接的1*1卷积层1、3*3卷积层2及1*1卷积层3,该层循环3次;每个循环之间无非线性激活层。基于深度学习中的反向传播算法,用大量图像数据和图像所含物体类别标签预训练,总结提取图像抽象特征,输出图像的高维特征张量。
优选的,非线性激活层均采用线性整流函数(Rectified Linear Unit,ReLU),卷积层和全连接层后均跟随ReLU函数的非线性激活层。其中,ReLU公式如下,max代表输入两数取最较大值:
ReLU(x)=max(0,x)
其次,采用数据增强后的训练图像样本对深度卷积神经网络中的区域选取网络进行训练,采用验证图像样本对训练得到的区域选取网络进行验证,并采用测试图像样本对验证得到的区域选取网络进行测试,得到图像识别模型中的区域选取模型。具体的,区域选取网络由全连接层和非线性激活层组成,参见图4,是本发明一实施例提供的区域选取网络的架构示意图,区域选取网络包括多个交替连接的1*1池化层和3*3卷积层、及全局池化层和两个1*1全连接层。区域选取网络通过在特征提取网络输出的三维张量上进行滑窗分类和物体边界框坐标回归,输出结果为判断当前该窗口位置包含目标区域的概率及估计当前窗口所含目标区域的尺寸和长宽比,当前窗口位置即对应原图像中相应坐标位置。
再是,采用数据增强后的训练图像样本对深度卷积神经网络中的分类网络进行训练,采用验证图像样本对训练得到的分类网络进行验证,并采用测试图像样本对验证得到的分类网络进行测试,得到图像识别模型中的分类模型。具体的,参见图5,是本发明一实施例提供的分类网络的架构示意图,分类网络由堆砌的全连接层和非线性激活层组成,对区域选取网络输出中,包含目标区域(如异常细胞)的位置所对应的高维特征张量进行分类,输出该区域中所包含的目标是异常细胞类别的概率及背景的概率。
示例性的,模型训练包括以下步骤:向深度卷积神经网络中的特征提取网络输入600x600的图像,输出为150x150x256、75x75x512、38x38x1024、19x19x2048的四个三维张量。进而,区域选取网络的输入是3x3x256的卷积核在对应的四个三维张量上的沿着前两个维度滑窗,中间层为256维的特征向量,256维向量全连接输出当前感兴趣区域包含目标区域的类别,由向量[0,1]代表背景,向量[1,0]代表异常细胞,同时目标区域位置回归样同是全连接层,由256维向量全连接输出当前区域包含目标相对于子张量坐标中心的外接矩形框左上角坐标的橫,纵,长,宽的归一化在[0,1]之间的浮点值,即目标区域的位置和尺寸。特征提取网络由输入到输出图像尺度缩小了32倍,所以区域选择网络所输出的橫纵长宽需要相应扩大32倍即为检测框在原图像中的大小。分类网络的输出是该目标区域为背景或异常细胞的类别概率。该类别概率最高且高于阈值0.3的区域被视为模型最终输出。该模型输出的全部目标通过非最大值抑制(Non-maximum suppression,NMS)算法,消除高度重叠的检测结果,视为算法的最终输出。
在上述实施例的基础上,在一些实施例中,所述将所述验证图像样本对训练得到的深度卷积神经网络进行参数调优,包括:
将所述验证图像样本输入到训练得到的深度卷积神经网络,输出所述验证图像样本对应的目标区域相对位置坐标;
将每个验证图像样本中的图像的所有目标区域相对位置坐标叠加成该图像的目标区域定位模板;
计算图像的所述目标区域定位模板与所标注的目标区域的标注框坐标之间的定位误差,并将所述验证图像样本中各图像的定位误差叠加成验证误差集;
选取当所述验证误差集的定位误差最小时对应的模型作为调优得到的深度卷积神经网络。
在本实施例中,深度卷积神经网络的特征提取网络参数由在ImageNet分类网络预训练的网络去除全连接层的参数进行初始化,其它相关网络参数为[0,1]之间服从截断正态分布参数随机初始化。利用随机梯度下降反向传播算法在经过增强的训练集中以0.001的学习率训练90个周期。进一步,通过训练得到的深度卷积神经网络在验证图像样本上统计分割结果,将验证图像样本中的每张图像的所有目标区域相对位置坐标叠加在一起构成该图像的目标区域定位模板。计算该目标区域定位模板与所标注的目标区域的欧几里德距离,该距离为单张图像的推断误差,将验证图像样本中所有图像的推断误差加总在一起得到验证图像样本的误差,即验证误差集,最后令验证误差集中的误差最低的模型作为最终验证获得的模型。
在一些实施例中,所述将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标,包括:
将所述待识别图像输入到所述特征提取模型进行抽象特征的提取,输出特征张量;
基于所述区域选取模型对所述特征张量进行滑窗分类和物体边界框坐标回归,识别出所述待识别图像中的感兴趣区域包含目标区域的概率及所述目标区域的位置和尺寸;
将所述概率及所述目标区域的位置和尺寸输入到所述分类模型,得到所述目标区域的类别概率和相对位置坐标。
在本实施例中,参见图6是本发明一实施例提供的图像识别模型的结构示意图,图像识别模型包括特征提取模型(即图6中的特征提取网络)、区域选取模型(即图6中的区域选取网络)及分类模型(即图6中的分类网络)。具体的,请参见图6,将待识别图像输入特征提取模型中的卷积池化层进行处理,将卷积池化得到的结果进行金字塔型特征图的提取,得到三维特征张量。进而,将该特征张量输入到区域选取模型进行金字塔型区域选取和感兴趣区域、目标区域池化,输出待识别图像中的感兴趣区域包含目标区域的概率及所述目标区域的位置和尺寸。进一步,将区域选取模型的输出结果输入到分类模型进行类别预测和位置预测,得到目标区域的类别概率和相对位置坐标,从而获得图像识别模型的输出结果。
在一些实施例中,所述根据所述目标区域的类别概率,确定所述待识别图像的分类结果,包括:
选取每一个类别中排序在前n位的目标区域的类别概率,作为分类基础数据;
根据所述分类基础数据,确定相应类别的得分值;
将所述得分值除以预设阈值,得到所述类别的分阈比;
根据所述类别的分阈比,计算所述类别的置信度;其中,通过如下公式(2)计算所述置信度:
v为所述类别的置信度,x为所述类别的分阈比;
判断所述类别的置信度是否超于预设分类阈值;若是,则认为所述分类结果为异常;否则,认为所述分类结果为正常。
示例性的,通过图像识别模型的运算,每个尿液脱落细胞数字图像可以得到数量不等的异常细胞以及其对应预测的类别概率。对于除过背景的每一类别,选取类别概率最高的20个检测结果作为分类结果计算的基础数据,如不足20个则使用全部。对每一类别,使用选取基础数据求其平均值得出该类别的得分,并使用该得分除以对应的预设阈值,可以得出该类别的分阈比。通过分阈比使用公式(2)得出分类结果的置信度。根据每个类别的置信度,若该类别的置信度超过预设分类阈值(如0.5),则被认为是潜在类别。进而,异常细胞潜在类别根据预设优先级得出一个分类结果,若没有潜在类别则结果为阴性。其中,优先级为高级别尿路上皮癌>疑似高级别尿路上皮癌>低度尿路上皮肿瘤>非典型尿路上皮细胞。
参见图7,是本发明一实施例提供的一种图像分类方法的流程示意图,包括:
图像样本获取模块201,用于获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签;
模型训练模块202,用于根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型;
待识别图像获取模块203,用于获取待识别图像;
图像识别模块204,用于将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标;
图像分类模块205,用于根据所述目标区域的类别概率,确定所述待识别图像的分类结果。
优选的,图像识别模块204包括:
特征提取单元,用于将所述待识别图像输入到所述特征提取模型进行抽象特征的提取,输出特征张量;
区域选取单元,用于基于所述区域选取模型对所述特征张量进行滑窗分类和物体边界框坐标回归,识别出所述待识别图像中的感兴趣区域包含目标区域的概率及所述目标区域的位置和尺寸;
分类单元,用于将所述概率及所述目标区域的位置和尺寸输入到所述分类模型,得到所述目标区域的类别概率和相对位置坐标。
优选的,图像样本获取模块201包括:
预处理单元,用于根据预先定义的感兴趣区域特征及目标区域特征,分割出预先采集的图像中的感兴趣区域及其中的目标区域,并标注所述目标区域的标注框坐标和类别标签,以构成图像数据集;
归一化单元,用于对所述图像数据集进行归一化处理;
数据划分单元,用于将归一化处理得到的图像数据集划分为训练图像样本、验证图像样本和测试图像样本;
数据增强单元,用于对所述训练图像样本进行数据增强;
数据组织单元,用于将数据增强后的训练图像样本、验证图像样本和测试图像样本组织成所述图像样本。
优选的,归一化单元包括:
像素参数读取单元,用于读取所述图像数据集中各图像的微米每像素参数及原行(列)像素参数;
图像缩放单元,用于根据所述微米每像素参数,通过双线性插值法对所述图像数据集进行缩放;其中,通过如下公式(1)进行缩放:
c=a*b/mpp (1)
a为归一化参数,b为原行(列)像素参数,c为目标行(列)像素参数,mpp为微米每像素参数;
数据增强单元包括:
镜像处理单元,用于随机对所述训练图像样本进行垂直或水平镜像,并将所述训练图像样本与镜像处理得到的训练图像样本组织成第一训练图像集;
翻转处理单元,用于对所述第一训练图像集进行顺时针翻转,并将所述第一训练图像集与翻转后的第一训练图像集组织成数据增强后的训练图像样本。
优选的,模型训练模块202包括:
训练单元,用于利用随机梯度下降反向传播的方式,将所述数据增强后的训练图像样本作为预先建立的深度卷积神经网络的输入,基于所述深度卷积神经网络的输出结果进行训练;
验证单元,用于将所述验证图像样本对训练得到的深度卷积神经网络进行参数调优;
测试单元,用于将所述测试图像样本输入到调优得到的深度卷积神经网络进行测试,得到图像识别模型。
优选的,验证单元包括:
验证图像样本输入单元,用于将所述验证图像样本输入到训练得到的深度卷积神经网络,输出所述验证图像样本对应的目标区域相对位置坐标;
验证结果叠加单元,用于将每个验证图像样本中的图像的所有目标区域相对位置坐标叠加成该图像的目标区域定位模板;
定位误差计算单元,用于计算图像的所述目标区域定位模板与所标注的目标区域的标注框坐标之间的定位误差,并将所述验证图像样本中各图像的定位误差叠加成验证误差集;
验证输出单元,用于选取当所述验证误差集的定位误差最小时对应的模型作为调优得到的深度卷积神经网络。
优选的,图像分类模块205包括:
基础数据选取单元,用于选取每一个类别中排序在前n位的目标区域的类别概率,作为分类基础数据;
得分值确定单元,用于根据所述分类基础数据,确定相应类别的得分值;
分阈比计算单元,用于将所述得分值除以预设阈值,得到所述类别的分阈比;
置信度计算单元,用于根据所述类别的分阈比,计算所述类别的置信度;其中,通过如下公式(2)计算所述置信度:
v为所述类别的置信度,x为所述类别的分阈比;
置信度判断单元,用于判断所述类别的置信度是否超于预设分类阈值;若是,则认为所述分类结果为异常;否则,认为所述分类结果为正常。
本发明实施例公开的一种图像分类装置,通过获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签,根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型,获取待识别图像,将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标,根据所述目标区域的类别概率,确定所述待识别图像的分类结果,这样通过训练好的深度卷积神经网络对图像数据进行图像分析检测,提高图像获取的准确性,适用于不同制片方式的图像,使得训练得到的模型具有更高的精度,实现了面对复杂图像时能够精确、有效的进行主体区域的检测、分离,减少了工作量。
该实施例的终端设备包括:处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,例如图像分类程序。所述处理器执行所述计算机程序时实现上述各个图像分类方法实施例中的步骤。或者,所述处理器执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述终端设备中的执行过程。
所述终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图仅仅是终端设备的示例,并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述终端设备的控制中心,利用各种接口和线路连接整个终端设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述终端设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (10)
1.一种图像分类方法,其特征在于,包括:
获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签;
根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型;
获取待识别图像;
将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标;
根据所述目标区域的类别概率,确定所述待识别图像的分类结果。
2.如权利要求1所述的图像分类方法,其特征在于,所述将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标,包括:
将所述待识别图像输入到所述特征提取模型进行抽象特征的提取,输出特征张量;
基于所述区域选取模型对所述特征张量进行滑窗分类和物体边界框坐标回归,识别出所述待识别图像中的感兴趣区域包含目标区域的概率及所述目标区域的位置和尺寸;
将所述概率及所述目标区域的位置和尺寸输入到所述分类模型,得到所述目标区域的类别概率和相对位置坐标。
3.如权利要求1所述的图像分类方法,其特征在于,通过如下步骤获取图像样本,包括:
根据预先定义的感兴趣区域特征及目标区域特征,分割出预先采集的图像中的感兴趣区域及其中的目标区域,并标注所述目标区域的标注框坐标和类别标签,以构成图像数据集;
对所述图像数据集进行归一化处理;
将归一化处理得到的图像数据集划分为训练图像样本、验证图像样本和测试图像样本;
对所述训练图像样本进行数据增强;
将数据增强后的训练图像样本、验证图像样本和测试图像样本组织成所述图像样本。
4.如权利要求3所述的图像分类方法,其特征在于,所述对所述图像数据集进行归一化处理,包括:
读取所述图像数据集中各图像的微米每像素参数及原行(列)像素参数;
根据所述微米每像素参数,通过双线性插值法对所述图像数据集进行缩放;其中,通过如下公式(1)进行缩放:
c=a*b/mpp (1)
a为归一化参数,b为原行(列)像素参数,c为目标行(列)像素参数,mpp为微米每像素参数;
所述对所述训练图像样本进行数据增强,包括:
随机对所述训练图像样本进行垂直或水平镜像,并将所述训练图像样本与镜像处理得到的训练图像样本组织成第一训练图像集;
对所述第一训练图像集进行顺时针翻转,并将所述第一训练图像集与翻转后的第一训练图像集组织成数据增强后的训练图像样本。
5.如权利要求3所述的图像检测方法,其特征在于,所述根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,具体包括:
利用随机梯度下降反向传播的方式,将所述数据增强后的训练图像样本作为预先建立的深度卷积神经网络的输入,基于所述深度卷积神经网络的输出结果进行训练;
将所述验证图像样本对训练得到的深度卷积神经网络进行参数调优;
将所述测试图像样本输入到调优得到的深度卷积神经网络进行测试,得到图像识别模型。
6.如权利要求5所述的图像检测方法,其特征在于,所述将所述验证图像样本对训练得到的深度卷积神经网络进行参数调优,包括:
将所述验证图像样本输入到训练得到的深度卷积神经网络,输出所述验证图像样本对应的目标区域相对位置坐标;
将每个验证图像样本中的图像的所有目标区域相对位置坐标叠加成该图像的目标区域定位模板;
计算图像的所述目标区域定位模板与所标注的目标区域的标注框坐标之间的定位误差,并将所述验证图像样本中各图像的定位误差叠加成验证误差集;
选取当所述验证误差集的定位误差最小时对应的模型作为调优得到的深度卷积神经网络。
8.一种图像分类装置,其特征在于,包括:
图像样本获取模块,用于获取图像样本,所述图像样本标注有感兴趣区域及其中目标区域的标注框坐标和类别标签;
模型训练模块,用于根据所述图像样本对预先建立的深度卷积神经网络进行训练,得到图像识别模型,所述图像识别模型包括特征提取模型、区域选取模型和分类模型;
待识别图像获取模块,用于获取待识别图像;
图像识别模块,用于将所述待识别图像输入到所述图像识别模型,获得所述待识别图像中各目标区域的类别概率和相对位置坐标;
图像分类模块,用于根据所述目标区域的类别概率,确定所述待识别图像的分类结果。
9.一种终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任意一项所述的图像分类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至7中任意一项所述的图像分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110584208.2A CN113269257A (zh) | 2021-05-27 | 2021-05-27 | 一种图像分类方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110584208.2A CN113269257A (zh) | 2021-05-27 | 2021-05-27 | 一种图像分类方法、装置、终端设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113269257A true CN113269257A (zh) | 2021-08-17 |
Family
ID=77233251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110584208.2A Pending CN113269257A (zh) | 2021-05-27 | 2021-05-27 | 一种图像分类方法、装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113269257A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113672753A (zh) * | 2021-08-24 | 2021-11-19 | 成都玻尔兹曼智贝科技有限公司 | 一种正畸影像资料的分类保存方法 |
CN114004963A (zh) * | 2021-12-31 | 2022-02-01 | 深圳比特微电子科技有限公司 | 目标类别识别方法、装置及可读存储介质 |
CN116229280A (zh) * | 2023-01-09 | 2023-06-06 | 广东省科学院广州地理研究所 | 崩岗识别方法、装置、电子设备以及存储介质 |
CN116363761A (zh) * | 2023-06-01 | 2023-06-30 | 深圳海清智元科技股份有限公司 | 基于图像的行为识别方法、装置及电子设备 |
GB2617440A (en) * | 2022-03-04 | 2023-10-11 | Samsung Electronics Co Ltd | Method for classifying images using novel classes |
WO2024027535A1 (zh) * | 2022-08-01 | 2024-02-08 | 马上消费金融股份有限公司 | 针对图像识别模型的处理方法及相关产品 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101540000A (zh) * | 2008-03-20 | 2009-09-23 | 中国科学院自动化研究所 | 基于纹理基元统计特性分析的虹膜分类方法 |
CN102855468A (zh) * | 2012-07-31 | 2013-01-02 | 东南大学 | 一种相片识别中的单样本人脸识别方法 |
CN105868769A (zh) * | 2015-01-23 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中的人脸关键点定位方法及装置 |
US20170061249A1 (en) * | 2015-08-26 | 2017-03-02 | Digitalglobe, Inc. | Broad area geospatial object detection using autogenerated deep learning models |
CN106940816A (zh) * | 2017-03-22 | 2017-07-11 | 杭州健培科技有限公司 | 基于3d全连接卷积神经网络的ct图像肺结节检测系统 |
CN107066934A (zh) * | 2017-01-23 | 2017-08-18 | 华东交通大学 | 胃部肿瘤细胞图像识别判定装置、方法及胃部肿瘤切片识别判定设备 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与系统 |
CN107274345A (zh) * | 2017-06-07 | 2017-10-20 | 众安信息技术服务有限公司 | 一种中文打印字符图像合成方法及装置 |
CN111310808A (zh) * | 2020-02-03 | 2020-06-19 | 平安科技(深圳)有限公司 | 图片识别模型的训练方法、装置、计算机系统及存储介质 |
CN111415352A (zh) * | 2020-04-03 | 2020-07-14 | 南京信息工程大学 | 一种基于深度级联网络的癌转移全景病理切片分析方法 |
CN111814817A (zh) * | 2019-04-12 | 2020-10-23 | 北京京东尚科信息技术有限公司 | 视频分类方法、装置、存储介质及电子设备 |
-
2021
- 2021-05-27 CN CN202110584208.2A patent/CN113269257A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101540000A (zh) * | 2008-03-20 | 2009-09-23 | 中国科学院自动化研究所 | 基于纹理基元统计特性分析的虹膜分类方法 |
CN102855468A (zh) * | 2012-07-31 | 2013-01-02 | 东南大学 | 一种相片识别中的单样本人脸识别方法 |
CN105868769A (zh) * | 2015-01-23 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中的人脸关键点定位方法及装置 |
US20170061249A1 (en) * | 2015-08-26 | 2017-03-02 | Digitalglobe, Inc. | Broad area geospatial object detection using autogenerated deep learning models |
CN107066934A (zh) * | 2017-01-23 | 2017-08-18 | 华东交通大学 | 胃部肿瘤细胞图像识别判定装置、方法及胃部肿瘤切片识别判定设备 |
CN106940816A (zh) * | 2017-03-22 | 2017-07-11 | 杭州健培科技有限公司 | 基于3d全连接卷积神经网络的ct图像肺结节检测系统 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与系统 |
CN107274345A (zh) * | 2017-06-07 | 2017-10-20 | 众安信息技术服务有限公司 | 一种中文打印字符图像合成方法及装置 |
CN111814817A (zh) * | 2019-04-12 | 2020-10-23 | 北京京东尚科信息技术有限公司 | 视频分类方法、装置、存储介质及电子设备 |
CN111310808A (zh) * | 2020-02-03 | 2020-06-19 | 平安科技(深圳)有限公司 | 图片识别模型的训练方法、装置、计算机系统及存储介质 |
CN111415352A (zh) * | 2020-04-03 | 2020-07-14 | 南京信息工程大学 | 一种基于深度级联网络的癌转移全景病理切片分析方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113672753A (zh) * | 2021-08-24 | 2021-11-19 | 成都玻尔兹曼智贝科技有限公司 | 一种正畸影像资料的分类保存方法 |
CN114004963A (zh) * | 2021-12-31 | 2022-02-01 | 深圳比特微电子科技有限公司 | 目标类别识别方法、装置及可读存储介质 |
CN114004963B (zh) * | 2021-12-31 | 2022-03-29 | 深圳比特微电子科技有限公司 | 目标类别识别方法、装置及可读存储介质 |
GB2617440A (en) * | 2022-03-04 | 2023-10-11 | Samsung Electronics Co Ltd | Method for classifying images using novel classes |
WO2024027535A1 (zh) * | 2022-08-01 | 2024-02-08 | 马上消费金融股份有限公司 | 针对图像识别模型的处理方法及相关产品 |
CN116229280A (zh) * | 2023-01-09 | 2023-06-06 | 广东省科学院广州地理研究所 | 崩岗识别方法、装置、电子设备以及存储介质 |
CN116363761A (zh) * | 2023-06-01 | 2023-06-30 | 深圳海清智元科技股份有限公司 | 基于图像的行为识别方法、装置及电子设备 |
CN116363761B (zh) * | 2023-06-01 | 2023-08-18 | 深圳海清智元科技股份有限公司 | 基于图像的行为识别方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113269257A (zh) | 一种图像分类方法、装置、终端设备及存储介质 | |
Hoang et al. | Image processing–based classification of asphalt pavement cracks using support vector machine optimized by artificial bee colony | |
Plaza et al. | A new approach to mixed pixel classification of hyperspectral imagery based on extended morphological profiles | |
US10121245B2 (en) | Identification of inflammation in tissue images | |
US20180137338A1 (en) | System and method for classifying and segmenting microscopy images with deep multiple instance learning | |
CN111524137B (zh) | 基于图像识别的细胞识别计数方法、装置和计算机设备 | |
WO2008154314A1 (en) | Salient object detection | |
Zhang et al. | Road recognition from remote sensing imagery using incremental learning | |
CN112215217B (zh) | 模拟医师阅片的数字图像识别方法及装置 | |
Yue et al. | Texture extraction for object-oriented classification of high spatial resolution remotely sensed images using a semivariogram | |
Ngugi et al. | A new approach to learning and recognizing leaf diseases from individual lesions using convolutional neural networks | |
CN115239644B (zh) | 混凝土缺陷识别方法、装置、计算机设备和存储介质 | |
CN110852327A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN116385380A (zh) | 基于深度特征的缺陷检测方法、系统、设备及存储介质 | |
CN113269752A (zh) | 一种图像检测方法、装置终端设备及存储介质 | |
CN114972202A (zh) | 一种基于轻量级的神经网络的Ki67病理细胞快速检测计数方法 | |
CN114742750A (zh) | 异常细胞检测方法、装置、终端设备及可读存储介质 | |
Ghadhban et al. | Segments interpolation extractor for finding the best fit line in Arabic offline handwriting recognition words | |
Košcevic et al. | Automatic visual reading of meters using deep learning | |
CN116596875B (zh) | 晶圆缺陷检测方法、装置、电子设备及存储介质 | |
CN115908363B (zh) | 肿瘤细胞统计方法、装置、设备和存储介质 | |
CN113096080A (zh) | 图像分析方法及系统 | |
CN110287970B (zh) | 一种基于cam与掩盖的弱监督物体定位方法 | |
KR101821770B1 (ko) | 특징 추출을 위한 기법들 | |
CN115775226B (zh) | 基于Transformer的医学图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210817 |