CN109190646B - 一种基于神经网络的数据预测方法、装置及神经网络系统 - Google Patents
一种基于神经网络的数据预测方法、装置及神经网络系统 Download PDFInfo
- Publication number
- CN109190646B CN109190646B CN201810664593.XA CN201810664593A CN109190646B CN 109190646 B CN109190646 B CN 109190646B CN 201810664593 A CN201810664593 A CN 201810664593A CN 109190646 B CN109190646 B CN 109190646B
- Authority
- CN
- China
- Prior art keywords
- branching networks
- neural network
- target labels
- prediction result
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/259—Fusion by voting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种基于神经网络的数据预测方法、装置及神经网络系统,其中所述神经网络系统包括主干网络、至少两个分支网络以及投票单元,其中,所述至少两个分支网络的深度相同,且各个分支网络具有独立的模型参数;所述主干网络用于对目标图像进行特征提取,获得特征集合,并将所述特征集合输出至所述至少两个分支网络;所述分支网络用于根据输入的特征进行任务处理,输出对应的预测结果;所述投票单元用于融合所述至少两个分支网络输出的预测结果,确定最终输出结果。本发明实施例可以实现对神经网络模型的优化,提高了神经网络的预测精确度。
Description
技术领域
本发明涉及神经网络技术领域,特别是涉及一种基于神经网络的数据预测方法、一种基于神经网络的数据预测装置、一种神经网络系统、一种电子设备以及一个或多个机器可读介质。
背景技术
图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题,也是图像检测、图像分割、物体跟踪、行为分析等其他高层视觉任务的基础。
近年来,深度学习在视频图像、语音识别、自然语言处理等相关领域得到了广泛应用。卷积神经网络(CNN)作为深度学习的一个重要分支,由于其超强的拟合能力以及端到端的全局优化能力,使得图像分类任务在应用卷积神经网络之后,预测精度大幅提升。
虽然目前的图像分类模型对图像具有了一定的分类能力,但是仍然会有大量预测错误的样本,如何进一步优化图像分类模型成为一个需要解决的问题。
发明内容
本发明实施例所要解决的技术问题是提供一种基于神经网络的数据预测方法,以解决现有的图像分类模型存在大量预测错误的样本、分类准确率较低的问题。
相应的,本发明实施例还提供了一种基于神经网络的数据预测装置、一种神经网络系统、一种电子设备以及一个或多个机器可读介质,用以保证上述方法的实现及应用。
为了解决上述问题,本发明公开了一种神经网络系统,所述神经网络系统包括主干网络、至少两个分支网络以及投票单元,其中,所述至少两个分支网络的深度相同,且各个分支网络具有独立的模型参数;
所述主干网络用于对目标图像进行特征提取,获得特征集合,并将所述特征集合输出至所述至少两个分支网络;
所述分支网络用于根据输入的特征进行任务处理,输出对应的预测结果;
所述投票单元用于融合所述至少两个分支网络输出的预测结果,确定最终输出结果。
优选地,所述神经网络系统包括分类神经网络,所述预测结果包括分类标签和所述分类标签对应的概率;
所述投票单元还用于:
分别统计所述分类标签出现的次数;
确定出现次数最多的分类标签作为目标标签,并计算所述目标标签对应的概率的平均值,作为目标概率;
将所述目标标签以及所述目标概率组织成最终输出结果。
优选地,所述投票单元还用于:
若所述目标标签包括至少两种,则从所述至少两种目标标签对应的目标概率中选取最大的目标概率,对应的目标标签作为最终的目标标签。
优选地,所述至少两个分支网络的起始层符合预设条件,以使得所述分支网络位于整个神经网络的较低层。
优选地,所述分支网络具有对应的损失函数,则整个神经网络的损失函数为所述至少两个分支网络的损失函数与对应的预设权重的加权求和后得到的结果。
本发明还公开了一种基于神经网络的数据预测方法,所述神经网络包括主干网络以及至少两个分支网络,其中,所述至少两个分支网络的深度相同,且各个分支网络具有独立的模型参数;
所述方法包括:
采用所述主干网络对目标图像进行特征提取,获得特征集合;
将所述特征集合分发至所述至少两个分支网络;
获取所述至少两个分支网络根据输入的特征输出的预测结果;
融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果。
优选地,所述神经网络包括分类神经网络,所述预测结果包括分类标签和所述分类标签对应的概率;
所述融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果,包括:
分别统计所述分类标签出现的次数;
确定出现次数最多的分类标签作为目标标签,并计算所述目标标签对应的概率的平均值,作为目标概率;
将所述目标标签以及所述目标概率组织成最终输出结果。
优选地,所述所述融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果,还包括:
若所述目标标签包括至少两种,则从所述至少两种目标标签对应的目标概率中选取最大的目标概率,对应的目标标签作为最终的目标标签。
优选地,所述将所述特征集合分发至所述至少两个分支网络,包括:
将所述特征集合平均分发至所述至少两个分支网络的输入层。
优选地,所述至少两个分支网络的起始层符合预设条件,以使得所述分支网络位于所述神经网络的较低层。
优选地,所述分支网络具有对应的损失函数,则所述神经网络的损失函数为所述至少两个分支网络的损失函数与对应的预设权重的加权求和后得到的结果。
本发明还公开了一种基于神经网络的数据预测装置,所述神经网络包括主干网络以及至少两个分支网络,其中,所述至少两个分支网络的深度相同,且各个分支网络拥有独立的模型参数;
所述装置包括:
特征提取模块,用于采用所述主干网络对目标图像进行特征提取,获得特征集合;
特征分发模块,用于将所述特征集合分发至所述至少两个分支网络;
预测结果获取模块,用于获取所述至少两个分支网络根据输入的特征输出的预测结果;
预测结果融合模块,用于融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果。
本发明还公开了一种电子设备,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行上述的一种基于神经网络的数据预测方法。
本发明还公开了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行上述的一种基于神经网络的数据预测方法。
与现有技术相比,本发明实施例包括以下优点:
在本发明实施例中,以神经网络为基础,作为分类模型的主干网络,然后将主干网络划分成至少两个相互独立的分支网络,分支网络共享主干网络的较低层提取的图像底层特征,每个分支网络基于底层特征对样本进行一次独立的预测,得到预测结果,最后对每个分支网络的预测结果进行投票或融合,从而得到最终输出结果,即得到输入的图片最终的分类,从而实现对神经网络模型的优化,提高了神经网络的预测精确度。
附图说明
图1是本发明实施例的一种神经网络系统实施例的结构框图;
图2是本发明实施例的卷积神经网络示意图;
图3是本发明实施例的一种基于神经网络的数据预测方法实施例的步骤流程图;
图4是本发明实施例的一种基于神经网络的数据预测装置实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明实施例的一种神经网络系统实施例的结构框图,所述神经网络系统10至少可以包括:主干网络101以及至少两个分支网络102。
在本发明实施例中,主干网络101用于对目标图像进行特征提取,获得特征集合,并将所述特征集合输出至所述至少两个分支网络102。
其中,该两个分支网络102的深度相同,且各个分支网络102具有独立的模型参数。各个分支网络102用于根据输入的特征进行任务处理,输出对应的预测结果。
在一种实施方式中,该神经网络系统10可以包括分类神经网络,可以应用在图像分类的场景。如图2的卷积神经网络示意图所示,在该分类神经网络中,可以以卷积神经网络作为主干网络,然后将该主干网络划分成K(其中,K>=2,例如,K=3。)个相互独立的分支网络(又称子网络)。在本实施例中,每个分支网络的深度相同,具有相同的网络结构,如图2所示,每个分支网络都包含相同层数的卷积或池化层。
在一种实施方式中,分支网络的数量可以与待处理的任务的数量相关联,例如,当待处理的任务较少时,可以设置分支网络的数量等于待处理的任务的数量,以提高任务的处理效率。
在本发明实施例的一种优选实施例中,上述至少两个分支网络102可以选取于神经网络的较低层,从而更好地共享提取的底层特征。
在一种实施方式中,该分支网络的起始层可以符合预设条件,以使得该分支网络位于神经网络的较低层。例如,根据神经网络的总层数,取位于1/N层作为起始层,或者,将第N层作为起始层。
在图2中,可以将图像数据(即目标图像)作为输入,输入到浅层网络结构,浅层网络结构提取图像的底层特征,得到特征集合,随后该特征集合中的特征分别输入到分支网络的输入层,由分支网络根据该特征对图像进行预测,输出预测结果。
在本发明实施例中,分支网络共享上层复杂网络提取的底层特征,可以提高分支网络的运算速度。
在一种实现方式中,可以将特征集合平均分发至分支网络的输入层。例如,对于主干网络的第i层,如果包含N个特征图,则按照第i层的宽度,将其均分成K个分支网络,每个分支网络的特征图的数量为N/K。此时这K个分支网络具有相同的网络结构,每个分支网络拥有独立的模型参数。
在本发明实施例的一种优选实施例中,每个分支网络102都具有对应的损失函数,则整个神经网络的损失函数为上述至少两个分支网络的损失函数与对应的预设权重的加权求和后得到的结果。
例如,整个神经网络的损失函数的计算公式可以如下:
loss=λnet1lossnet1+λnet2lossnet2+λnet3lossnet3
其中,lossnet1、λnet1分别表示第一个分支网络的损失函数以及权重,lossnet2、λnet2分别表示第二个分支网络的损失函数以及权重,lossnet3、λnet3分别表示第三个分支网络的损失函数以及权重。
在一种实施方式中,由于每个分支网络包含相同的网络结构,所以三个分支网络的权重都可以设置为λ=1。
在本发明实施例中,所述神经网络系统还可以包括投票单元103,其中,该投票单元103用于融合所述至少两个分支网络输出的预测结果,确定最终输出结果。
进一步优选地,当本发明实施例的神经网络为分类模型时,则预测结果可以包括分类标签和分类标签对应的概率。则投票单元103还用于:分别统计所述分类标签出现的次数;确定出现次数最多的分类标签作为目标标签,并计算所述目标标签对应的概率的平均值,作为目标概率;将所述目标标签以及所述目标概率组织成最终输出结果。
例如,假设有三个分支网络,每个分支网络分别输出一个预测结果,预测结果为分类标签和概率的元组,分别为(人,0.9)、(人,0.8)、(猫,0.99),此时,“人”这个分类标签出现的次数为2次,“猫”这个分类标签出现的次数为1次,则将“人”这个分类标签作为目标标签,该目标标签对应的概率的平均值为(0.9+0.8)/2=0.85,即最终输出结果为(人,0.85)。
在本发明实施例的一种优选实施例中,所述投票单元103还用于:若所述目标标签包括至少两种,则从所述至少两种目标标签对应的目标概率中选取最大的目标概率,对应的目标标签作为最终的目标标签。
例如,假设有五个分支网络,每个分支网络分别输出一个预测结果,分别为(人,0.9)、(人,0.8)、(猫,0.3),(猫,0.5),(狗,0.1),则“人”、“猫”这两个分类标签出现的次数都为2次,此时,计算“人”分类标签对应的平均概率为0.85,计算“猫”分类标签对应的平均概率为0.4,因此将“人”分类标准作为目标标签,即最终输出结果为(人,0.85)。
在本发明实施例中,以神经网络为基础,作为分类模型的主干网络,然后将主干网络划分成至少两个相互独立的分支网络,分支网络共享主干网络的较低层提取的图像底层特征,每个分支网络基于底层特征对样本进行一次独立的预测,得到预测结果,最后对每个分支网络的预测结果进行投票或融合,从而得到最终输出结果,即得到输入的图片最终的分类,从而实现对神经网络模型的优化,提高了神经网络的预测精确度。
参照图3,示出了本发明实施例的一种基于神经网络的数据预测方法实施例的步骤流程图,其中,所述神经网络可以包括主干网络以及至少两个分支网络,其中,所述至少两个分支网络的深度相同,且各个分支网络具有独立的模型参数。
本发明实施例具体可以包括如下步骤:
步骤301,采用所述主干网络对目标图像进行特征提取,获得特征集合;
步骤302,将所述特征集合分发至所述至少两个分支网络;
步骤303,获取所述至少两个分支网络根据输入的特征输出的预测结果;
步骤304,融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果。
在本发明实施例的一种优选实施例中,所述神经网络包括分类神经网络,所述预测结果包括分类标签和所述分类标签对应的概率;
所述步骤304进一步可以包括如下子步骤:
分别统计所述分类标签出现的次数;
确定出现次数最多的分类标签作为目标标签,并计算所述目标标签对应的概率的平均值,作为目标概率;
将所述目标标签以及所述目标概率组织成最终输出结果。
在本发明实施例的一种优选实施例中,所述步骤304还可以包括如下子步骤:
若所述目标标签包括至少两种,则从所述至少两种目标标签对应的目标概率中选取最大的目标概率,对应的目标标签作为最终的目标标签。
在本发明实施例的一种优选实施例中,步骤302进一步可以包括如下子步骤:
将所述特征集合平均分发至所述至少两个分支网络的输入层。
在本发明实施例的一种优选实施例中,所述至少两个分支网络的起始层符合预设条件,以使得所述分支网络位于所述神经网络的较低层。
在本发明实施例的一种优选实施例中,所述分支网络具有对应的损失函数,则所述神经网络的损失函数为所述至少两个分支网络的损失函数与对应的预设权重的加权求和后得到的结果。
对于方法实施例而言,由于其与上述系统实施例基本相似,所以描述的比较简单,相关之处参见系统实施例的部分说明即可。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图4,示出了本发明实施例的一种基于神经网络的数据预测装置实施例的结构框图,其中,所述神经网络包括主干网络以及至少两个分支网络,其中,所述至少两个分支网络的深度相同,且各个分支网络拥有独立的模型参数。
本发明实施例具体可以包括如下模块:
特征提取模块401,用于采用所述主干网络对目标图像进行特征提取,获得特征集合;
特征分发模块402,用于将所述特征集合分发至所述至少两个分支网络;
预测结果获取模块403,用于获取所述至少两个分支网络根据输入的特征输出的预测结果;
预测结果融合模块404,用于融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果。
在本发明实施例的一种优选实施例中,所述神经网络包括分类神经网络,所述预测结果包括分类标签和所述分类标签对应的概率;
所述预测结果融合模块404进一步可以包括如下子模块:
次数统计子模块,用于分别统计所述分类标签出现的次数;
最终输出结果确定子模块,用于确定出现次数最多的分类标签作为目标标签,并计算所述目标标签对应的概率的平均值,作为目标概率;将所述目标标签以及所述目标概率组织成最终输出结果。
在本发明实施例的一种优选实施例中,所述预测结果融合模块404还可以包括如下子模块:
决策子模块,用于若所述目标标签包括至少两种,则从所述至少两种目标标签对应的目标概率中选取最大的目标概率,对应的目标标签作为最终的目标标签。
在本发明实施例的一种优选实施例中,所述特征分发模块402还用于:
将所述特征集合平均分发至所述至少两个分支网络的输入层。
在本发明实施例的一种优选实施例中,所述至少两个分支网络的起始层符合预设条件,以使得所述分支网络位于所述神经网络的较低层。
在本发明实施例的一种优选实施例中,所述分支网络具有对应的损失函数,则所述神经网络的损失函数为所述至少两个分支网络的损失函数与对应的预设权重的加权求和后得到的结果。
对于装置实施例而言,由于其与上述系统实施例基本相似,所以描述的比较简单,相关之处参见系统实施例的部分说明即可。
本发明实施例还公开了一种电子设备,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行上述的一种基于神经网络的数据预测方法。
本发明实施例还公开了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行上述的一种基于神经网络的数据预测方法。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种基于神经网络的数据预测方法、装置及神经网络系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (16)
1.一种用于图像分类的数据预测系统,包括神经网络系统,其特征在于,所述神经网络系统包括主干网络、至少两个分支网络以及投票单元,其中,所述至少两个分支网络的深度相同,且各个分支网络具有独立的模型参数;
所述主干网络用于对目标图像进行特征提取,获得特征集合,并将所述特征集合输出至所述至少两个分支网络;
所述分支网络用于根据输入的特征进行任务处理,输出对应的预测结果;
所述投票单元用于融合所述至少两个分支网络输出的预测结果,确定最终输出结果;
其中,所述神经网络系统还包括分类神经网络,所述预测结果包括分类标签和所述分类标签对应的概率;
所述投票单元还用于:
分别统计所述分类标签出现的次数;
确定出现次数最多的分类标签作为目标标签,并计算所述目标标签对应的概率的平均值,作为目标概率;
将所述目标标签以及所述目标概率组织成最终输出结果。
2.根据权利要求1所述的系统,其特征在于,所述投票单元还用于:
若所述目标标签包括至少两种,则从所述至少两种目标标签对应的目标概率中选取最大的目标概率,对应的目标标签作为最终的目标标签。
3.根据权利要求1或2所述的系统,其特征在于,所述至少两个分支网络的起始层符合预设条件,以使得所述分支网络位于整个神经网络的较低层。
4.根据权利要求1或2所述的系统,其特征在于,所述分支网络具有对应的损失函数,则整个神经网络的损失函数为所述至少两个分支网络的损失函数与对应的预设权重的加权求和后得到的结果。
5.一种用于图像分类的数据预测方法,包括神经网络,其特征在于,所述神经网络包括主干网络以及至少两个分支网络,其中,所述至少两个分支网络的深度相同,且各个分支网络具有独立的模型参数;
所述方法包括:
采用所述主干网络对目标图像进行特征提取,获得特征集合;
将所述特征集合分发至所述至少两个分支网络;
获取所述至少两个分支网络根据输入的特征输出的预测结果;
融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果;
其中,所述神经网络还包括分类神经网络,所述预测结果包括分类标签和所述分类标签对应的概率;
所述融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果,包括:
分别统计所述分类标签出现的次数;
确定出现次数最多的分类标签作为目标标签,并计算所述目标标签对应的概率的平均值,作为目标概率;
将所述目标标签以及所述目标概率组织成最终输出结果。
6.根据权利要求5所述的方法,其特征在于,所述神经网络包括分类神经网络,所述预测结果包括分类标签和所述分类标签对应的概率;
所述融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果,还包括:
若所述目标标签包括至少两种,则从所述至少两种目标标签对应的目标概率中选取最大的目标概率,对应的目标标签作为最终的目标标签。
7.根据权利要求5所述的方法,其特征在于,所述将所述特征集合分发至所述至少两个分支网络,包括:
将所述特征集合平均分发至所述至少两个分支网络的输入层。
8.根据权利要求5所述的方法,其特征在于,所述至少两个分支网络的起始层符合预设条件,以使得所述分支网络位于所述神经网络的较低层。
9.根据权利要求5所述的方法,其特征在于,所述分支网络具有对应的损失函数,则所述神经网络的损失函数为所述至少两个分支网络的损失函数与对应的预设权重的加权求和后得到的结果。
10.一种用于图像分类的数据预测装置,包括神经网络,其特征在于,所述神经网络包括主干网络以及至少两个分支网络,其中,所述至少两个分支网络的深度相同,且各个分支网络拥有独立的模型参数;
所述装置包括:
特征提取模块,用于采用所述主干网络对目标图像进行特征提取,获得特征集合;
特征分发模块,用于将所述特征集合分发至所述至少两个分支网络;
预测结果获取模块,用于获取所述至少两个分支网络根据输入的特征输出的预测结果;
预测结果融合模块,用于融合所述至少两个分支网络输出的预测结果,确定所述神经网络的最终输出结果;
其中,所述神经网络还包括分类神经网络,所述预测结果包括分类标签和所述分类标签对应的概率;
所述预测结果融合模块包括:
次数统计子模块,用于分别统计所述分类标签出现的次数;
最终输出结果确定子模块,用于确定出现次数最多的分类标签作为目标标签,并计算所述目标标签对应的概率的平均值,作为目标概率;将所述目标标签以及所述目标概率组织成最终输出结果。
11.根据权利要求10所述的装置,其特征在于,所述预测结果融合模块还包括:
决策子模块,用于若所述目标标签包括至少两种,则从所述至少两种目标标签对应的目标概率中选取最大的目标概率,对应的目标标签作为最终的目标标签。
12.根据权利要求10所述的装置,其特征在于,所述特征分发模块还用于:
将所述特征集合平均分发至所述至少两个分支网络的输入层。
13.根据权利要求10所述的装置,其特征在于,所述至少两个分支网络的起始层符合预设条件,以使得所述分支网络位于所述神经网络的较低层。
14.根据权利要求10所述的装置,其特征在于,所述分支网络具有对应的损失函数,则所述神经网络的损失函数为所述至少两个分支网络的损失函数与对应的预设权重的加权求和后得到的结果。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行如权利要求5-9一个或多个的一种用于图像分类的数据预测方法。
16.一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行如权利要求5-9一个或多个的一种用于图像分类的数据预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810664593.XA CN109190646B (zh) | 2018-06-25 | 2018-06-25 | 一种基于神经网络的数据预测方法、装置及神经网络系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810664593.XA CN109190646B (zh) | 2018-06-25 | 2018-06-25 | 一种基于神经网络的数据预测方法、装置及神经网络系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109190646A CN109190646A (zh) | 2019-01-11 |
CN109190646B true CN109190646B (zh) | 2019-08-20 |
Family
ID=64948537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810664593.XA Active CN109190646B (zh) | 2018-06-25 | 2018-06-25 | 一种基于神经网络的数据预测方法、装置及神经网络系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109190646B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859190B (zh) * | 2019-01-31 | 2021-09-17 | 北京工业大学 | 一种基于深度学习的目标区域检测方法 |
CN110070171A (zh) * | 2019-03-29 | 2019-07-30 | 中国科学院深圳先进技术研究院 | 基于神经网络的分类方法、装置、终端及可读介质 |
CN112016575A (zh) * | 2019-05-29 | 2020-12-01 | 阿里巴巴集团控股有限公司 | 一种检测方法、计算机设备、存储介质 |
CN110321970A (zh) * | 2019-07-11 | 2019-10-11 | 山东领能电子科技有限公司 | 一种基于分枝神经网络的多特征细粒度的目标分类方法 |
CN110766231A (zh) * | 2019-10-30 | 2020-02-07 | 上海天壤智能科技有限公司 | 基于多头神经网络的犯罪预测方法及系统 |
CN111768397B (zh) * | 2020-07-01 | 2023-01-20 | 创新奇智(重庆)科技有限公司 | 冻存管分布情况检测方法、装置、电子设备及存储介质 |
CN113283514B (zh) * | 2021-05-31 | 2024-05-21 | 高新兴科技集团股份有限公司 | 一种基于深度学习的未知类别分类方法、装置及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228137A (zh) * | 2016-07-26 | 2016-12-14 | 广州市维安科技股份有限公司 | 一种基于关键点定位的atm机异常人脸检测方法 |
CN106779073A (zh) * | 2016-12-27 | 2017-05-31 | 西安石油大学 | 基于深度神经网络的媒体信息分类方法及装置 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
-
2018
- 2018-06-25 CN CN201810664593.XA patent/CN109190646B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228137A (zh) * | 2016-07-26 | 2016-12-14 | 广州市维安科技股份有限公司 | 一种基于关键点定位的atm机异常人脸检测方法 |
CN106779073A (zh) * | 2016-12-27 | 2017-05-31 | 西安石油大学 | 基于深度神经网络的媒体信息分类方法及装置 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
Non-Patent Citations (2)
Title |
---|
《Facial Landmark Detection by Deep Multi-task Learning》;Zhanpeng Z. et al;《ECCV-2014》;20141231;全文 |
《基于卷积神经网络的人脸识别方法研究》;吕妙娴;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180215;全文 |
Also Published As
Publication number | Publication date |
---|---|
CN109190646A (zh) | 2019-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190646B (zh) | 一种基于神经网络的数据预测方法、装置及神经网络系统 | |
US20220335711A1 (en) | Method for generating pre-trained model, electronic device and storage medium | |
CN111046980B (zh) | 一种图像检测方法、装置、设备及计算机可读存储介质 | |
CN109408731A (zh) | 一种多目标推荐方法、多目标推荐模型生成方法以及装置 | |
CN112052787A (zh) | 基于人工智能的目标检测方法、装置及电子设备 | |
CN114942984B (zh) | 视觉场景文本融合模型的预训练和图文检索方法及装置 | |
CN113837308B (zh) | 基于知识蒸馏的模型训练方法、装置、电子设备 | |
CN111241285A (zh) | 问题回答类型的识别方法、装置、设备及存储介质 | |
CN111181757B (zh) | 信息安全风险预测方法、装置以及计算设备、存储介质 | |
CN111144215A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN110310114A (zh) | 对象分类方法、装置、服务器及存储介质 | |
CN111931809A (zh) | 数据的处理方法、装置、存储介质及电子设备 | |
CN111783934A (zh) | 卷积神经网络构建方法、装置、设备及介质 | |
CN115114439B (zh) | 多任务模型推理、多任务信息处理的方法和装置 | |
CN114490998B (zh) | 文本信息的抽取方法、装置、电子设备和存储介质 | |
CN112233428B (zh) | 车流量预测方法、装置、存储介质及设备 | |
CN112561060A (zh) | 神经网络训练方法及装置、图像识别方法及装置和设备 | |
CN113806501B (zh) | 意图识别模型的训练方法、意图识别方法和设备 | |
CN116383517A (zh) | 动态传播特征增强的多模态谣言检测方法及系统 | |
CN113886547A (zh) | 基于人工智能的客户实时对话转接方法、装置和电子设备 | |
CN115858911A (zh) | 信息推荐方法、装置、电子设备及计算机可读存储介质 | |
CN113554280A (zh) | 电网系统调度模型的训练方法、装置、设备和存储介质 | |
CN113535946A (zh) | 基于深度学习的文本鉴别方法、装置、设备及存储介质 | |
CN114693950B (zh) | 一种图像特征提取网络的训练方法、装置及电子设备 | |
CN114328797B (zh) | 内容搜索方法、装置、电子设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |