CN111523578A - 图像分类方法及装置、神经网络模型的训练方法及装置 - Google Patents
图像分类方法及装置、神经网络模型的训练方法及装置 Download PDFInfo
- Publication number
- CN111523578A CN111523578A CN202010286236.1A CN202010286236A CN111523578A CN 111523578 A CN111523578 A CN 111523578A CN 202010286236 A CN202010286236 A CN 202010286236A CN 111523578 A CN111523578 A CN 111523578A
- Authority
- CN
- China
- Prior art keywords
- label
- image
- classified
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
Abstract
本申请提供了一种图像分类方法及装置、神经网络模型的训练方法及装置。图像分类方法包括:获取待分类图像的多标签特征;获取多标签特征的权重系数;根据多标签特征和权重系数,获取待分类图像的多标签分类结果,能够提高多标签分类的鲁棒性。
Description
技术领域
本申请涉及图像分类技术领域,具体涉及一种图像分类方法及装置、神经网络模型的训练方法及装置。
背景技术
多标签分类又称为多标签学习、多标记学习,不同于多类分类,一个样本可以属于多个类别(或标签),例如,一张脑出血图像的标签可以是有无硬膜外血肿、有无脑实质内血肿、有无脑室血肿、有无蛛网膜下腔血肿、有无硬膜下血肿中的一种或多种,通过对脑出血图像进行多标签分类,对于医疗诊断、指定手术计划具有十分重要的意义。但是,由于多标签分类的复杂性,传统的多标签分类方法鲁棒性较差。
发明内容
有鉴于此,本申请实施例提供了一种图像分类方法及装置、神经网络模型的训练方法及装置,能够提高多标签分类的鲁棒性。
根据本申请实施例的第一方面,提供一种图像分类方法,包括:获取待分类图像的多标签特征;获取多标签特征的权重系数;根据多标签特征和权重系数,获取待分类图像的多标签分类结果。
在本申请的一个实施例中,上述获取待分类图像的多标签特征,包括:将待分类图像输入U型神经网络,获取多标签特征。
在本申请的一个实施例中,上述将待分类图像输入U型神经网络,获取多标签特征,包括:将待分类图像输入U型神经网络,通过特征提取操作获得多个特征层;通过上采样操作获得多个上采样特征层;根据多个特征层和多个上采样特征层,通过跨层拼接操作,获得尺寸逐渐增大的多个第一拼接特征图;根据多个第一拼接特征图,通过上采样操作,获得多个尺寸相同的第二拼接特征图;将多个尺寸相同的第二拼接特征图进行拼接操作,获得第三拼接特征图;根据第三拼接特征图,获得多标签特征。
在本申请的一个实施例中,上述获取待分类图像的多标签特征,包括:获取待分类图像的多标签特征图,其中,上述获取多标签特征的权重系数,包括:对多标签特征图进行卷积操作和归一化操作,获得包含权重系数的权重矩阵,其中,上述根据多标签特征和权重系数,获取待分类图像的多标签分类结果,包括:对多标签特征图和权重矩阵进行矩阵乘操作,获得加权后的多标签特征图;根据加权后的多标签特征图,获取多标签分类结果。
在本申请的一个实施例中,上述图像分类方法还包括:对待分类图像分别进行多个不同的加窗处理,获得待分类图像对应的多个加窗图像;对多个加窗图像进行拼接操作,获得预处理后的待分类图像。
在本申请的一个实施例中,待分类图像包括多层图像,其中,上述对待分类图像分别进行多个不同的加窗处理,获得多个加窗图像,包括:对多层图像分别进行多个不同的加窗处理,得到多套加窗图像,其中,多套加窗图像中的每套加窗图像包括多层图像对应的多层加窗图像,其中,上述对多个加窗图像进行拼接操作,获得预处理后的待分类图像,包括:分别从多套加窗图像中抽取对应的连续多层加窗图像;对多套加窗图像中对应的连续多层加窗图像进行拼接操作,获得预处理后的待分类图像。
根据本申请实施例的第二方面,提供一种神经网络模型的训练方法,包括:确定样本图像,其中,样本图像包括多标签的标记信息;基于样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型。
在本申请的一个实施例中,多标签包括父标签和至少一个子标签,其中,上述基于样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型,包括:将样本图像输入神经网络模型,获得父标签损失函数值和至少一个子标签损失函数值;根据父标签损失函数值和至少一个子标签损失函数值,更新神经网络模型的参数。
在本申请的一个实施例中,上述获得父标签损失函数值和至少一个子标签损失函数值,包括:根据至少一个子标签的输出概率,获得至少一个子标签损失函数值,其中,至少一个子标签的输出概率分别为至少一个子标签的预测概率与父标签的真实概率的乘积。
在本申请的一个实施例中,上述根据至少一个子标签的输出概率,获得至少一个子标签损失函数值,包括:根据至少一个子标签的输出概率和子标签的损失函数公式,获得至少一个子标签损失函数值,其中,子标签的损失函数公式为:
Sub_class_lossk=-[Labelk*log(Probk*Labelany)+(1-Labelk)*log[(1-Probk)*Labelany]]
其中,k=0,1,2,3,…,n,Labelk∈{0,1}表示子标签的真实概率,Probk表示子标签的预测概率,Labelany∈{0,1}表示父标签的真实概率。
在本申请的一个实施例中,样本图像为脑部影像,父标签为有无脑出血,至少一个子标签包括有无硬膜外血肿、有无脑实质内血肿、有无脑室血肿、有无蛛网膜下腔血肿、有无硬膜下血肿中的至少一种。
根据本申请实施例的第三方面,提供一种图像分类装置,包括:特征模块,用于获取待分类图像的多标签特征;权重模块,用于获取多标签特征的权重系数;分类模块,用于根据多标签特征和权重系数,获取待分类图像的多标签分类结果。
根据本申请实施例的第四方面,提供一种神经网络模型的训练装置,包括:确定模块,用于确定样本图像,其中,样本图像包括多标签的标记信息;训练模块,用于基于样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型。
根据本申请实施例的第五方面,提供一种计算机可读存储介质,存储介质存储有计算机程序,计算机程序用于执行上述任一所述的方法。
根据本申请实施例的第六方面,提供一种电子设备,电子设备包括:处理器;用于存储处理器可执行指令的存储器;处理器,用于执行上述任一所述的方法。
根据本申请实施例提供的技术方案,获取待分类图像的多标签特征;获取多标签特征的权重系数;根据多标签特征和权重系数,获取待分类图像的多标签分类结果,通过利用权重系数对多标签特征进行加权,能够提高对重要特征的关注度,提高多标签分类的鲁棒性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1所示为本申请一实施例提供的图像分类方法的流程示意图。
图2所示为本申请另一实施例提供的图像分类方法的流程示意图。
图3所示为本申请另一实施例提供的图像分类方法的流程示意图。
图4所示为本申请一实施例提供的神经网络模型的训练方法的流程示意图。
图5所示为本申请一实施例提供的图像分类装置的框图。
图6所示为本申请一实施例提供的神经网络模型的训练装置的框图。
图7所示为本申请一实施例提供的电子设备的框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1所示为本申请一实施例提供的图像分类方法的流程示意图。该方法可以由计算机设备(例如,服务器)执行。如图1所示,该方法包括如下内容。
S110:获取待分类图像的多标签特征。
需要说明的是,待分类图像可以是医学图像,例如计算机断层扫描(CT)图像、核磁共振(MRI)成像、超声波(US)图像等,本申请对待分类图像的类型不作具体限定。待分类图像可以是脑部图像、胃部图像、心脏图像等,本申请对待分类图像的具体应用场景不作限定。另外,待分类图像可以是二维图像,也可以是三维图像,本申请对此不作限定。
多标签可以相关,例如,多标签可以包括父标签与子标签,多标签也可以不相关,本申请对此不作限定。本申请实施例以脑部图像为例,对于同一张脑部医学图像,其中可能存在多种出血类型的特征。其中,每种出血类型对应一个标签。例如,父标签为有无脑出血,子标签为有无硬膜外血肿、有无脑实质内血肿、有无脑室血肿、有无蛛网膜下腔血肿和有无硬膜下血肿中的一种或多种。
S120:获取多标签特征的权重系数。
权重系数用于对多标签特征进行加权,提高对重要特征的关注度,本申请对获得权重系数的方式不作具体限定。
S130:根据多标签特征和权重系数,获取待分类图像的多标签分类结果。
具体地,利用权重系数对多标签特征进行加权,提高对重要特征的关注度,获得加权后的多标签特征,并根据加权后的多标签特征对待分类图像进行多标签分类。
例如,将待分类图像输入神经网络模型,神经网络模型根据多标签特征和权重系数获得加权后的多标签特征,并根据加权后的多标签特征对待分类图像进行多标签分类,输出各个标签的概率。根据各个标签的概率获得多标签分类结果。
例如,标签1、标签2、标签3、标签4、标签5、标签6的输出概率分别为(0.8,0.6,0.2,0,0,0.8),则说明待分类图像的分类结果为标签1、标签2、标签3和标签6对应的分类。
在本申请的另一个实施例中,还可以将输出概率与预设阈值进行比较,确定最终的分类结果。当输出概率大于或者等于预设阈值时,输出概率转换为1,而当输出概率小于预设阈值时,输出概率转换为0,如上述示例,预设阈值为0.5时,分类结果为(1,1,0,0,0,1),也就是待分类图像的分类结果为标签1、标签2和标签6对应的分类。
根据本申请实施例提供的技术方案,获取待分类图像的多标签特征;获取多标签特征的权重系数;根据多标签特征和权重系数,获取待分类图像的多标签分类结果,通过利用权重系数对多标签特征进行加权,能够提高对重要特征的关注度,提高多标签分类的鲁棒性。
在本申请的另一个实施例中,上述获取待分类图像的多标签特征,包括:将待分类图像输入U型神经网络,获取多标签特征。
U型神经网络(U-net)的结构包括特征提取部分和上采样部分。特征提取部分,通过卷积层和池化层得到不同尺寸的特征图。上采样部分,每上采样一次,得到一上采样特征层,就将其和特征提取部分对应的相同尺寸的特征图进行拼接。通过将富含高阶抽象特征(如上下文信息等)的特征层分别与富含空间信息的上采样特征层进行跨层拼接,能够使得神经网络模型基于该信息学习,获得更为精确的输出。
在本申请的另一个实施例中,上述将待分类图像输入U型神经网络,获取多标签特征,包括:将待分类图像输入U型神经网络,通过特征提取操作获得多个特征层;通过上采样操作获得多个上采样特征层;根据多个特征层和多个上采样特征层,通过跨层拼接操作,获得尺寸逐渐增大的多个第一拼接特征图;根据多个第一拼接特征图,通过上采样操作,获得多个尺寸相同的第二拼接特征图;将多个尺寸相同的第二拼接特征图进行拼接操作,获得第三拼接特征图;根据第三拼接特征图,获得多标签特征。
例如,将待分类图像输入Unet神经网络,通过主干网络提取特征得到多个特征层C2、C3、C4、C5、C6,主干网络可以采用resnet,densenet,resnext等神经网络,本申请对此不作具体限定。特征层C6经过卷积操作后,进行2倍上采样得到上采样特征图C6’,通过将C6’和C6跨层拼接得到第一拼接特征图P6,对P6进行2倍上采样得到上采样特征图P6’,通过将P6’和C5跨层拼接得到第一拼接特征图P5,对P5进行2倍上采样得到上采样特征图P5’,通过将P5’和C4跨层拼接得到第一拼接特征图P4,对P4进行2倍上采样得到上采样特征图P4’,通过将P4’和C3跨层拼接得到第一拼接特征图P3。通过将富含高阶抽象特征(如上下文信息等)的特征层C6、C5、C4、C3分别与富含空间信息的上采样特征层C6’、P6’、P5’、P4’进行跨层拼接,能够使得神经网络模型基于拼接后的信息学习,获得更为精确的输出。
进一步地,将P6、P5、P4分别进行8倍、4倍、2倍上采样,使其与P3的尺寸相同,并与P3拼接得到P3’(即第三拼接特征图)。本申请实施例结合了Unet神经网络和特征金字塔神经网络(FPN),可以使得神经网络模型学习多尺度语义信息,提高神经网络模型对图像中微小特征的学习能力,提高神经网络模型的性能。
进一步地,根据第三拼接特征图,获得多标签特征。具体地,可以将第三拼接特征图P3’通过卷积操作进行通道整合压缩得到多标签特征P3”。
应当理解,上述描述仅为示例性描述,本申请对特征层的数量、上采样特征的数量,上采样倍数、根据第三拼接特征图获得多标签特征的方式等不作具体限定。
在本申请的另一个实施例中,上述获取待分类图像的多标签特征,包括:获取待分类图像的多标签特征图,其中,上述获取多标签特征的权重系数,包括:对多标签特征图进行卷积操作和归一化操作,获得包含权重系数的权重矩阵,其中,上述根据多标签特征和权重系数,获取待分类图像的多标签分类结果,包括:对多标签特征图和权重矩阵进行矩阵乘操作,获得加权后的多标签特征图;根据加权后的多标签特征图,获取多标签分类结果。
具体地,可以将多标签特征图P3”进行卷积操作得到通道数为1的特征图,然后将该特征层在空间维度进行softmax归一化后得到包含权重系数的权重矩阵。将多标签特征图和权重矩阵进行矩阵乘操作,能够提高对重要特征的关注度,提高神经网络模型的鲁棒性。
进一步地,根据加权后的多标签特征图,获取多标签分类结果。可以将加权后的多标签特征图经过池化操作后,输入全连接层,通过全连接层获得多标签的输出概率,根据输出概率获取多标签分类结果。
应当理解,上述池化操作可以是加和池化操作、均值池化操作或最大值池化操作,本申请对具体池化方式不作限定。
在本申请的另一个实施例中,上述图像分类方法还包括:对待分类图像进行预处理,获得预处理后的待分类图像,其中,上述获取待分类图像的多标签特征包括:获取预处理后的待分类图像的多标签特征。
具体地,预处理可以包括加窗处理、归一化处理、去噪处理、细节增强等操作,本申请对此不作限定。应当理解,本申请对上述预处理操作的顺序不作限定,另外,本申请对加窗处理采取的窗宽、窗位的具体值也不作限定。通过进行预处理操作,可以丰富神经网络模型可利用的图像信息,降低特征信息的损失。
在本申请的另一个实施例中,上述对待分类图像进行预处理,获得预处理后的待分类图像,包括:对待分类图像分别进行多个不同的加窗处理,获得待分类图像对应的多个加窗图像;对多个加窗图像进行拼接操作,获得预处理后的待分类图像。
待分类图像可以为一层或多层。例如,当待分类图像m为一层时,对待分类图像m进行3个不同窗宽、窗位的加窗处理,得到S’,S”,S”’,将S’,S”,S”’拼接起来,可以获得预处理后的待分类图像,并将其作为神经网络模型的输入。
当待分类图像m为多层时,例如m的层数为n,其中每一层图像记为Si,i=0,1,2,…,n。对待分类图像m进行3个不同窗宽、窗位的加窗处理,得到三套加窗图像序列,分别为m1(每层加窗图像记为Si’,i=0,1,2,…,n),m2(每层加窗图像记为Si”,i=0,1,2,…,n),m3(每层加窗图像记为Si”’,i=0,1,2,…,n)。分别从m1、m2、m3抽取对应的一层加窗图像并进行拼接,例如,抽取S0’、S0”和S0”’后进行拼接并输入神经网络模型,可以获得S0图像对应的输出结果,抽取S1’、S1”和S1”’后进行拼接并输入神经网络模型,可以获得S1图像对应的输出结果,以此类推。通过对待分类图像进行多个不同窗宽、窗位的加窗处理,并将对应单层的图像进行拼接后输入神经网络模型,可以使得神经网络模型获得更全面的信息,输出结果更为准确。
在本申请的另一个实施例中,待分类图像包括多层图像,其中,上述对待分类图像分别进行多个不同的加窗处理,获得多个加窗图像,包括:对多层图像分别进行多个不同的加窗处理,得到多套加窗图像,其中,多套加窗图像中的每套加窗图像包括多层图像对应的多层加窗图像,其中,上述对多个加窗图像进行拼接操作,获得预处理后的待分类图像,包括:分别从多套加窗图像中抽取对应的连续多层加窗图像;对多套加窗图像中对应的连续多层加窗图像进行拼接操作,获得预处理后的待分类图像。
如上述示例,可以分别从m1、m2、m3抽取对应的连续多层加窗图像并进行拼接,例如,从m1抽取连续的3层加窗图像S0’、S1’、S2’,从m2抽取连续的三层加窗图像S0”、S1”、S2”;从m3抽取连续的三层加窗图像S0”’、S1”’、S2”’,将S0’、S1’、S2’、S0”、S1”、S2”、S0”’、S1”’、S2”’进行拼接后输入神经网络模型,可以获得S1图像对应的输出结果,同理,将S1’、S2’、S3’、S1”、S2”、S3”和S1”’、S2”’、S3”’进行拼接后输入神经网络模型,可以获得S2图像对应的输出结果,以此类推。应当理解,还可以抽取连续的5层、7层等进行拼接,本申请对抽取的层数不作具体限定。通过对待分类图像进行多个不同窗宽、窗位的加窗处理,并将对应连续多层的加窗图像进行拼接后输入神经网络模型,获得中间层的输出结果,能够使中间层结合前N层图像和后N层图像的特征,使得神经网络模型提取的中间层的特征更为全面,输出的中间层的结果更为准确。
在本申请的另一个实施例中,当待分类图像包括多层图像时,还包括后处理,将各个层的分类结果进行汇总。例如,S1图像的分类结果为脑出血和硬膜外血肿两种类型,S6图像的分类结果为脑出血和硬膜下血肿两种类型,其余层图像的分类结果均为未脑出血,则待分类图像的分类结果为脑出血、硬膜外血肿和硬膜下血肿三种类型。
图2所示为本申请另一实施例提供的图像分类方法的流程示意图。该方法可以由计算机设备(例如,服务器)执行。如图2所示,该方法包括如下内容。
S210:对多层的三维脑CT图像进行预处理。
具体地,预处理可以包括去噪处理、细节增强、加窗处理、归一化处理等操作。加窗处理可以包括多个不同窗宽、窗位的加窗处理。本申请对此不作具体限定。
如图3所示,三维脑CT图像m的层数为n层,每一层图像记为Si,i=0,1,2,…,n。经过去噪处理、细节增强、3个不同窗宽、窗位的加窗处理、归一化处理之后,获得三套加窗图像序列,分别为m1(每层加窗图像记为Si’,i=0,1,2,…,n),m2(每层加窗图像记为Si”,i=0,1,2,…,n),m3(每层加窗图像记为Si”’,i=0,1,2,…,n)。
进一步地,分别从m1、m2、m3抽取对应的连续3层加窗图像并进行拼接,从m1抽取连续的3层加窗图像S0’、S1’、S2’,从m2抽取连续的三层加窗图像S0”、S1”、S2”;从m3抽取连续的三层加窗图像S0”’、S1”’、S2”’,将S0’、S1’、S2’、S0”、S1”、S2”、S0”’、S1”’、S2”’进行拼接得到S1图像对应的预处理后的图像,同理,从m1抽取连续的3层加窗图像S1’、S2’、S3’,从m2抽取连续的三层加窗图像S1”、S2”、S3”;从m3抽取连续的三层加窗图像S1”’、S2”’、S3”’,将S1’、S2’、S3’、S1”、S2”、S3”、S1”’、S2”’、S3”’进行拼接得到S2图像对应的预处理后的图像,以此类推。
S220:分别将预处理后的多层三维脑CT图像输入神经网络模型,输出多层三维脑CT图像对应的多标签输出概率。
具体地,分别将每层三维脑CT图像对应的预处理后的图像输入神经网络模型,得到每层三维脑CT图像对应的多标签输出概率。
如图3所示,通过主干网络提取特征得到多个特征层C2、C3、C4、C5、C6,主干网络可以采用resnet,densenet,resnext等神经网络,本申请对此不作具体限定。C6经过卷积操作后,进行2倍上采样得到C6’,通过将C6’和C6跨层拼接得到P6,对P6进行2倍上采样得到P6’,通过将P6’和C5跨层拼接得到P5,对P5进行2倍上采样得到P5’,通过将P5’和C4跨层拼接得到P4,对P4进行2倍上采样得到P4’,通过将P4’和C3跨层拼接得到P3。将P6、P5、P4分别进行8倍、4倍、2倍上采样,使其与P3的尺寸相同,并与P3拼接得到P3’。将P3’通过卷积操作进行通道整合压缩得到多标签特征P3”。对P3”进行卷积操作得到通道数为1的特征层,将该特征层在空间维度上进行softmax归一化后得到权重矩阵M,将权重矩阵M与P3”进行矩阵乘操作得到特征层N,将特征层N经过加和池化操作后输入全连接层,获得多标签的输出概率。
在本申请实施例中,多标签包括父标签(有无脑出血)和五个子标签(有无硬膜外血肿、有无脑实质内血肿、有无脑室血肿、有无蛛网膜下腔血肿、有无硬膜下血肿)。其中,父标签的预测概率为Probany,子标签的预测概率为Probk,k=0,1,2,3,4,父标签的输出概率可以为Probany,子标签的输出概率可以为Probany*Probk。将子标签的预测概率与父标签的预测概率的乘积作为子标签的输出概率,可以提高多标签分类的准确性。
S230:对神经网络模型输出的多标签输出概率进行后处理,得到多层的三维脑CT图像的多标签分类结果。
具体地,根据每层三维脑CT图像对应的多标签输出概率,与预设阈值进行比较,确定每层三维脑CT图像的分类结果;将各个层的分类结果进行汇总,得到多层的三维脑CT图像的分类结果。具体地,将每层图像对应的输出概率。
根据本申请实施例提供的技术方案,通过对多层的三维脑CT图像进行预处理操作,可以丰富神经网络模型可利用的图像信息,降低特征信息的损失;通过将P4’和C3跨层拼接得到第一拼接特征图P3。通过将富含高阶抽象特征(如上下文信息等)的特征层C6、C5、C4、C3分别与富含空间信息的上采样特征层C6’、P6’、P5’、P4’进行跨层拼接,能够使得神经网络模型基于拼接后的信息学习,获得更为精确的输出;通过将P6、P5、P4分别进行8倍、4倍、2倍上采样,使其与P3的尺寸相同,并与P3拼接得到P3’,可以使得神经网络学习多尺度语义信息,提高神经网络模型对图像中微小特征的学习能力,提高神经网络模型的性能;通过将多标签特征图和权重矩阵进行矩阵乘操作,能够提高对重要特征的关注度,提高神经网络模型的鲁棒性;通过将子标签的预测概率与父标签的预测概率的乘积作为子标签的输出概率,可以提高多标签分类的准确性。
图4所示为本申请一实施例提供的神经网络模型的训练方法的流程示意图。该方法可以由计算机设备(例如,服务器)执行。如图4所示,该方法包括如下内容。
S410:确定样本图像,其中,样本图像包括多标签的标记信息。
样本图像可以是医学图像,例如计算机断层扫描(CT)图像、核磁共振(MRI)成像、超声波(US)图像等,本申请对样本图像的类型不作具体限定。样本图像可以是脑部图像、胃部图像、心脏图像等,本申请对样本图像的具体应用场景不作限定。另外,样本图像可以是二维图像,也可以是三维图像,本申请对此不作限定。
多标签可以相关,例如,多标签可以包括父标签与子标签,多标签也可以不相关,本申请对此不作限定。本申请实施例以脑部图像为例,对于同一张脑部医学图像,其中可能存在多种出血类型的特征。其中,每种出血类型对应一个标签。例如,父标签为有无脑出血,子标签为有无硬膜外血肿、有无脑实质内血肿、有无脑室血肿、有无蛛网膜下腔血肿和有无硬膜下血肿中的一种或多种。
具体地,获取样本图像并进行标记,例如,对脑部样本图像进行多标签标记,例如,脑出血标记为1,硬膜外血肿标记为2,脑实质内血肿标记为3,脑室血肿标记为4,蛛网膜下腔血肿标记为5、硬膜下血肿标记为6,应当理解,上述描述仅为示例性描述,本申请对此不作限定。
S420:基于样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型。
根据本申请实施例提供的技术方案,利用标记好的样本图像训练神经网络模型,使得神经网络模型能够根据多标签特征和权重系数对样本图像进行多标签分类,利用了权重系数对多标签特征进行加权,提高了神经网络模型对重要特征的关注度,提高了神经网络模型的鲁棒性。
在本申请的另一个实施例中,多标签包括父标签和至少一个子标签,其中,上述基于样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型,包括:将样本图像输入神经网络模型,获得父标签损失函数值和至少一个子标签损失函数值;根据父标签损失函数值和至少一个子标签损失函数值,更新神经网络模型的参数。
具体地,可以将父标签损失函数值和至少一个子标签损失函数值进行加权求和,获得总损失函数值,将总损失函数值反向迭代,更新神经网络模型的参数,以获得能够进行多标签分类的神经网络模型。
在本申请的另一个实施例中,上述获得父标签损失函数值和至少一个子标签损失函数值,包括:根据至少一个子标签的输出概率,获得至少一个子标签损失函数值,其中,至少一个子标签的输出概率分别为至少一个子标签的预测概率与父标签的真实概率的乘积。
具体地,基于条件概率的思想,在神经网络模型的训练阶段,将子标签的预测概率与父标签的真实概率的乘积作为子标签的输出概率;在神经网络模型的预测阶段,将子标签的预测概率与父标签的预测概率的乘积作为子标签的输出概率,能够提高输出结果的准确性。
在本申请的另一个实施例中,上述根据至少一个子标签的输出概率,获得至少一个子标签损失函数值,包括:根据至少一个子标签的输出概率和子标签的损失函数公式,获得至少一个子标签损失函数值。
在本申请的一个实施例中,子标签、父标签的损失函数均采用交叉熵损失函数。
在本申请的另一个实施例中,子标签的损失函数公式为:
Sub_class_lossk=-[Labelk*log(Probk*Labelany)+(1-Labelk)*log[(1-Probk)*Labelany]]
其中,k=0,1,2,3,…,n,Labelk∈{0,1}表示子标签的真实概率,Probk表示子标签的预测概率,Labelany∈{0,1}表示父标签的真实概率。
在本申请的另一个实施例中,父标签的损失函数公式为:
Binary_loss=-[Labelany*logProbany+(1-Labelany)*log(1-Probany)]
其中,Probany表示父标签的预测概率。
在本申请的另一个实施例中,总损失的损失函数公式为:
其中,α、βk为调制参数。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图5所示为本申请一实施例提供的图像分类装置的框图。如图5所示,该图像分类装置500包括:
特征模块510,用于获取待分类图像的多标签特征;
权重模块520,用于获取多标签特征的权重系数;
分类模块530,用于根据多标签特征和权重系数,获取待分类图像的多标签分类结果。
根据本申请实施例提供的技术方案,获取待分类图像的多标签特征;获取多标签特征的权重系数;根据多标签特征和权重系数,获取待分类图像的多标签分类结果,通过利用权重系数对多标签特征进行加权,能够提高对重要特征的关注度,提高多标签分类的鲁棒性。
在本申请的另一个实施例中,特征模块510还用于将待分类图像输入U型神经网络,获取多标签特征。
在本申请的另一个实施例中,特征模块510还用于将待分类图像输入U型神经网络,通过特征提取操作获得多个特征层;通过上采样操作获得多个上采样特征层;根据多个特征层和多个上采样特征层,通过跨层拼接操作,获得尺寸逐渐增大的多个第一拼接特征图;根据多个第一拼接特征图,通过上采样操作,获得多个尺寸相同的第二拼接特征图;将多个尺寸相同的第二拼接特征图进行拼接操作,获得第三拼接特征图;根据第三拼接特征图,获得多标签特征。
在本申请的另一个实施例中,特征模块510还用于获取待分类图像的多标签特征图,其中,权重模块520还用于对多标签特征图进行卷积操作和归一化操作,获得包含权重系数的权重矩阵,分类模块530还用于对多标签特征图和权重矩阵进行矩阵乘操作,获得加权后的多标签特征图;根据加权后的多标签特征图,获取多标签分类结果。
在本申请的另一个实施例中,图像分类装置还包括加窗模块540,用于对待分类图像分别进行多个不同的加窗处理,获得待分类图像对应的多个加窗图像;拼接模块550,用于对多个加窗图像进行拼接操作,获得预处理后的待分类图像。
在本申请的另一个实施例中,待分类图像包括多层图像,其中,加窗模块540还用于对多层图像分别进行多个不同的加窗处理,得到多套加窗图像,其中,多套加窗图像中的每套加窗图像包括多层图像对应的多层加窗图像,拼接模块550还用于分别从多套加窗图像中抽取对应的连续多层加窗图像;对多套加窗图像中对应的连续多层加窗图像进行拼接操作,获得预处理后的待分类图像。
图6所示为本申请一实施例提供的神经网络模型的训练装置的框图。如图6所示,该神经网络模型的训练装置600包括确定模块610和训练模块620。
确定模块610,用于确定样本图像,其中,样本图像包括多标签的标记信息。
训练模块620,用于基于样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型。
根据本申请实施例提供的技术方案,利用标记好的样本图像训练神经网络模型,使得神经网络模型能够根据多标签特征和权重系数对样本图像进行多标签分类,利用了权重系数对多标签特征进行加权,提高了神经网络模型对重要特征的关注度,提高了神经网络模型的鲁棒性。
在本申请的一个实施例中,多标签包括父标签和至少一个子标签,其中,训练模块620还用于将样本图像输入神经网络模型,获得父标签损失函数值和至少一个子标签损失函数值;根据父标签损失函数值和至少一个子标签损失函数值,更新神经网络模型的参数。
在本申请的一个实施例中,训练模块620还用于根据至少一个子标签的输出概率,获得至少一个子标签损失函数值,其中,至少一个子标签的输出概率分别为至少一个子标签的预测概率与父标签的真实概率的乘积。
在本申请的一个实施例中,训练模块620还用于根据至少一个子标签的输出概率和子标签的损失函数公式,获得至少一个子标签损失函数值,其中,子标签的损失函数公式为:
Sub_class_lossk=-[Labelk*log(Probk*Labelany)+(1-Labelk)*log[(1-Probk)*Labelany]]
其中,k=0,1,2,3,…,n,Labelk∈{0,1}表示子标签的真实概率,Probk表示子标签的预测概率,Labelany∈{0,1}表示父标签的真实概率。
在本申请的一个实施例中,样本图像为脑部影像,父标签为有无脑出血,至少一个子标签包括有无硬膜外血肿、有无脑实质内血肿、有无脑室血肿、有无蛛网膜下腔血肿、有无硬膜下血肿中的至少一种。
上述装置中各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
图7所示为本申请一实施例提供的电子设备700的框图。
参照图7,电子设备700包括处理组件710,其进一步包括一个或多个处理器,以及由存储器720所代表的存储器资源,用于存储可由处理组件710的执行的指令,例如应用程序。存储器720中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件710被配置为执行指令,以执行上述图像分类方法和神经网络模型的训练方法。
电子设备700还可以包括一个电源组件被配置为执行电子设备700的电源管理,一个有线或无线网络接口被配置为将电子设备700连接到网络,和一个输入输出(I/O)接口。电子设备700可以操作基于存储在存储器720的操作系统,例如Windows ServerTM,Mac OSXTM,UnixTM,LinuxTM,FreeBSDTM或类似。
一种非临时性计算机可读存储介质,当存储介质中的指令由上述电子设备700的处理器执行时,使得上述电子设备700能够执行上述图像分类方法和神经网络模型的训练方法。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序校验码的介质。
另外,还需要说明的是,本案中各技术特征的组合方式并不限本案权利要求中所记载的组合方式或是具体实施例所记载的组合方式,本案所记载的所有技术特征可以以任何方式进行自由组合或结合,除非相互之间产生矛盾。
需要注意的是,以上列举的仅为本申请的具体实施例,显然本申请不限于以上实施例,随之有着许多的类似变化。本领域的技术人员如果从本申请公开的内容直接导出或联想到的所有变形,均应属于本申请的保护范围。
应当理解,本申请实施例中提到的第一、第二等限定词,仅仅为了更清楚地描述本申请实施例的技术方案使用,并不能用以限制本申请的保护范围。
以上仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种图像分类方法,其特征在于,包括:
获取待分类图像的多标签特征;
获取所述多标签特征的权重系数;
根据所述多标签特征和所述权重系数,获取所述待分类图像的多标签分类结果。
2.根据权利要求1所述的方法,其特征在于,所述获取待分类图像的多标签特征,包括:
将所述待分类图像输入U型神经网络,获取所述多标签特征。
3.根据权利要求2所述的方法,其特征在于,所述将所述待分类图像输入U型神经网络,获取所述多标签特征,包括:
将所述待分类图像输入所述U型神经网络,通过特征提取操作获得多个特征层;
通过上采样操作获得多个上采样特征层;
根据所述多个特征层和所述多个上采样特征层,通过跨层拼接操作,获得尺寸逐渐增大的多个第一拼接特征图;
根据所述多个第一拼接特征图,通过上采样操作,获得多个尺寸相同的第二拼接特征图;
将所述多个尺寸相同的第二拼接特征图进行拼接操作,获得第三拼接特征图;
根据所述第三拼接特征图,获得所述多标签特征。
4.根据权利要求1所述的方法,其特征在于,所述获取待分类图像的多标签特征,包括:
获取所述待分类图像的多标签特征图,
其中,所述获取所述多标签特征的权重系数,包括:
对所述多标签特征图进行卷积操作和归一化操作,获得包含所述权重系数的权重矩阵,
其中,根据所述多标签特征和所述权重系数,获取所述待分类图像的多标签分类结果,包括:
对所述多标签特征图和所述权重矩阵进行矩阵乘操作,获得加权后的多标签特征图;
根据所述加权后的多标签特征图,获取所述多标签分类结果。
5.根据权利要求1所述的方法,其特征在于,还包括:
对所述待分类图像分别进行多个不同的加窗处理,获得所述待分类图像对应的多个加窗图像;
对所述多个加窗图像进行拼接操作,获得所述预处理后的待分类图像。
6.根据权利要求5所述的方法,其特征在于,所述待分类图像包括多层图像,
其中,所述对所述待分类图像分别进行多个不同的加窗处理,获得多个加窗图像,包括:
对所述多层图像分别进行多个不同的加窗处理,得到多套加窗图像,其中,所述多套加窗图像中的每套加窗图像包括所述多层图像对应的多层加窗图像,
其中,所述对所述多个加窗图像进行拼接操作,获得所述预处理后的待分类图像,包括:
分别从所述多套加窗图像中抽取对应的连续多层加窗图像;
对所述多套加窗图像中对应的连续多层加窗图像进行拼接操作,获得所述预处理后的待分类图像。
7.一种神经网络模型的训练方法,其特征在于,包括:
确定样本图像,其中,所述样本图像包括多标签的标记信息;
基于所述样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型。
8.根据权利要求7所述的方法,其特征在于,所述多标签包括父标签和至少一个子标签,其中,所述基于所述样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型,包括:
将所述样本图像输入所述神经网络模型,获得父标签损失函数值和至少一个子标签损失函数值;
根据所述父标签损失函数值和所述至少一个子标签损失函数值,更新所述神经网络模型的参数。
9.根据权利要求8所述的方法,其特征在于,所述获得父标签损失函数值和至少一个子标签损失函数值,包括:
根据所述至少一个子标签的输出概率,获得所述至少一个子标签损失函数值,其中,所述至少一个子标签的输出概率分别为所述至少一个子标签的预测概率与所述父标签的真实概率的乘积。
10.根据权利要求9所述的方法,其特征在于,所述根据所述至少一个子标签的输出概率,获得所述至少一个子标签损失函数值,包括:
根据所述至少一个子标签的输出概率和子标签的损失函数公式,获得所述至少一个子标签损失函数值,
其中,所述子标签的损失函数公式为:
Sub_class_lossk=-[Labelk*log(Probk*Labelany)+(1-Labelk)*log[(1-Probk)*Labelany]]
其中,k=0,1,2,3,…,n,Labelk∈{0,1}表示子标签的真实概率,Probk表示子标签的预测概率,Labelany∈{0,1}表示所述父标签的真实概率。
11.根据权利要求8所述的方法,其特征在于,所述样本图像为脑部影像,所述父标签为有无脑出血,所述至少一个子标签包括有无硬膜外血肿、有无脑实质内血肿、有无脑室血肿、有无蛛网膜下腔血肿、有无硬膜下血肿中的至少一种。
12.一种图像分类装置,其特征在于,包括:
特征模块,用于获取待分类图像的多标签特征;
权重模块,用于获取所述多标签特征的权重系数;
分类模块,用于根据所述多标签特征和所述权重系数,获取所述待分类图像的多标签分类结果。
13.一种神经网络模型的训练装置,其特征在于,包括:
确定模块,用于确定样本图像,其中,所述样本图像包括多标签的标记信息;
训练模块,用于基于所述样本图像训练神经网络模型,以生成根据多标签特征和权重系数进行多标签分类的神经网络模型。
14.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-11中任一项所述的方法。
15.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于执行上述权利要求1-11中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010286236.1A CN111523578B (zh) | 2020-04-13 | 2020-04-13 | 图像分类方法及装置、神经网络模型的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010286236.1A CN111523578B (zh) | 2020-04-13 | 2020-04-13 | 图像分类方法及装置、神经网络模型的训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111523578A true CN111523578A (zh) | 2020-08-11 |
CN111523578B CN111523578B (zh) | 2021-07-23 |
Family
ID=71911571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010286236.1A Active CN111523578B (zh) | 2020-04-13 | 2020-04-13 | 图像分类方法及装置、神经网络模型的训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111523578B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233126A (zh) * | 2020-10-15 | 2021-01-15 | 推想医疗科技股份有限公司 | 医学图像的加窗方法及装置 |
CN112330665A (zh) * | 2020-11-25 | 2021-02-05 | 沈阳东软智能医疗科技研究院有限公司 | Ct图像处理方法、装置、存储介质和电子设备 |
CN115100473A (zh) * | 2022-06-29 | 2022-09-23 | 武汉兰丁智能医学股份有限公司 | 基于并行神经网络的肺部细胞图像分类方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816009A (zh) * | 2019-01-18 | 2019-05-28 | 南京旷云科技有限公司 | 基于图卷积的多标签图像分类方法、装置及设备 |
CN109948575A (zh) * | 2019-03-27 | 2019-06-28 | 中国科学技术大学 | 超声图像中眼球区域分割方法 |
CN110210515A (zh) * | 2019-04-25 | 2019-09-06 | 浙江大学 | 一种图像数据多标签分类方法 |
CN110363776A (zh) * | 2019-06-28 | 2019-10-22 | 联想(北京)有限公司 | 图像处理方法及电子设备 |
CN110443189A (zh) * | 2019-07-31 | 2019-11-12 | 厦门大学 | 基于多任务多标签学习卷积神经网络的人脸属性识别方法 |
CN110688482A (zh) * | 2019-09-12 | 2020-01-14 | 新华三大数据技术有限公司 | 多标签识别方法、训练方法及装置 |
CN110718234A (zh) * | 2019-09-02 | 2020-01-21 | 江苏师范大学 | 基于语义分割编解码网络的声学场景分类方法 |
CN110781295A (zh) * | 2019-09-09 | 2020-02-11 | 河南师范大学 | 一种多标记数据的特征选择方法及装置 |
-
2020
- 2020-04-13 CN CN202010286236.1A patent/CN111523578B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816009A (zh) * | 2019-01-18 | 2019-05-28 | 南京旷云科技有限公司 | 基于图卷积的多标签图像分类方法、装置及设备 |
CN109948575A (zh) * | 2019-03-27 | 2019-06-28 | 中国科学技术大学 | 超声图像中眼球区域分割方法 |
CN110210515A (zh) * | 2019-04-25 | 2019-09-06 | 浙江大学 | 一种图像数据多标签分类方法 |
CN110363776A (zh) * | 2019-06-28 | 2019-10-22 | 联想(北京)有限公司 | 图像处理方法及电子设备 |
CN110443189A (zh) * | 2019-07-31 | 2019-11-12 | 厦门大学 | 基于多任务多标签学习卷积神经网络的人脸属性识别方法 |
CN110718234A (zh) * | 2019-09-02 | 2020-01-21 | 江苏师范大学 | 基于语义分割编解码网络的声学场景分类方法 |
CN110781295A (zh) * | 2019-09-09 | 2020-02-11 | 河南师范大学 | 一种多标记数据的特征选择方法及装置 |
CN110688482A (zh) * | 2019-09-12 | 2020-01-14 | 新华三大数据技术有限公司 | 多标签识别方法、训练方法及装置 |
Non-Patent Citations (1)
Title |
---|
徐有正 等: "多标签图像的识别分类处理算法", 《计算机时代》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233126A (zh) * | 2020-10-15 | 2021-01-15 | 推想医疗科技股份有限公司 | 医学图像的加窗方法及装置 |
CN112330665A (zh) * | 2020-11-25 | 2021-02-05 | 沈阳东软智能医疗科技研究院有限公司 | Ct图像处理方法、装置、存储介质和电子设备 |
CN112330665B (zh) * | 2020-11-25 | 2024-04-26 | 沈阳东软智能医疗科技研究院有限公司 | Ct图像处理方法、装置、存储介质和电子设备 |
CN115100473A (zh) * | 2022-06-29 | 2022-09-23 | 武汉兰丁智能医学股份有限公司 | 基于并行神经网络的肺部细胞图像分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111523578B (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gao et al. | Holistic classification of CT attenuation patterns for interstitial lung diseases via deep convolutional neural networks | |
CN111523578B (zh) | 图像分类方法及装置、神经网络模型的训练方法及装置 | |
Bi et al. | Automatic liver lesion detection using cascaded deep residual networks | |
Bar et al. | Chest pathology identification using deep feature selection with non-medical training | |
US20190279074A1 (en) | Semantic Class Localization Digital Environment | |
US10853409B2 (en) | Systems and methods for image search | |
US20190073563A1 (en) | Method and system for processing a task with robustness to missing input information | |
Yi et al. | Optimizing and visualizing deep learning for benign/malignant classification in breast tumors | |
CN111932529B (zh) | 一种图像分类分割方法、装置及系统 | |
CN111028246A (zh) | 一种医学图像分割方法、装置、存储介质及电子设备 | |
CN111524106A (zh) | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 | |
CN111369581A (zh) | 图像处理方法、装置、设备及存储介质 | |
WO2022105125A1 (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
JP5766620B2 (ja) | 物体領域検出装置、方法、及びプログラム | |
CN113822851A (zh) | 图像分割方法、装置、设备及存储介质 | |
Abdullah et al. | Multi-sectional views textural based SVM for MS lesion segmentation in multi-channels MRIs | |
Gao et al. | Multi-label deep regression and unordered pooling for holistic interstitial lung disease pattern detection | |
Ogiela et al. | Natural user interfaces in medical image analysis | |
CN113255557A (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN116071300A (zh) | 一种基于上下文特征融合的细胞核分割方法及相关设备 | |
CN114612902A (zh) | 图像语义分割方法、装置、设备、存储介质及程序产品 | |
CN113592769B (zh) | 异常图像的检测、模型的训练方法、装置、设备及介质 | |
Kharrat et al. | Classification of brain tumors using personalized deep belief networks on MRImages: PDBN-MRI | |
Valizadeh et al. | The Progress of Medical Image Semantic Segmentation Methods for Application in COVID-19 Detection | |
CN116030308B (zh) | 基于图卷积神经网络的多模态医学图像分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room B401, floor 4, building 1, No. 12, Shangdi Information Road, Haidian District, Beijing 100085 Applicant after: Tuxiang Medical Technology Co., Ltd Address before: Room B401, floor 4, building 1, No. 12, Shangdi Information Road, Haidian District, Beijing 100085 Applicant before: Beijing Tuoxiang Technology Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |