CN109902701A - 图像分类方法和装置 - Google Patents
图像分类方法和装置 Download PDFInfo
- Publication number
- CN109902701A CN109902701A CN201810325202.1A CN201810325202A CN109902701A CN 109902701 A CN109902701 A CN 109902701A CN 201810325202 A CN201810325202 A CN 201810325202A CN 109902701 A CN109902701 A CN 109902701A
- Authority
- CN
- China
- Prior art keywords
- network
- neuron
- wta
- probability
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本公开是关于一种图像分类方法和装置,属于学习模型技术领域。该方法包括:接收目标图像;基于预先训练的多层贝叶斯网络,对目标图像进行处理,得到目标图像对应的概率集合,其中,多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的;根据目标图像对应的概率集合中最大的概率,确定目标图像所属的类别。通过平均场分布公式逼近复杂的不好计算的后验概率公式,在可以取得相似结果的同时,大大降低了计算的复杂度,使得计算机可以实现实际计算。进而,突破了计算量的限制,在实际中可以采用多层贝叶斯网络完成图像的分类操作。
Description
技术领域
本公开是关于学习模型技术领域,尤其是关于一种图像分类方法和装置。
背景技术
在相关技术中可以使用单层贝叶斯网络对输入的图像进行分类,但是分类结果的正确率较低。
在实现本公开的过程中,发明人发现至少存在以下问题:
如果提高网络的复杂度,即采用多层贝叶斯网络进行图像分类,正确率会提高,但是贝叶斯网络所需使用的对图像进行处理的动态发放函数,是由基于贝叶斯定理得到的后验概率公式推导而来,具体在推导过程中需要对后验概率公式进行求偏导等操作。然而,对于多层贝叶斯网络,随着网络内部的层数的增加,后验概率公式本身的计算复杂度呈指数级增加,导致很难对后验概率公式进行求偏导等操作。最终,由于计算量的限制,无法采用多层贝叶斯网络完成图像的分类操作。
发明内容
为了克服相关技术中存在的问题,本公开提供了以下技术方案:
根据本公开实施例的第一方面,提供一种图像分类方法,所述方法包括:
接收目标图像;
基于预先训练的多层贝叶斯网络,对所述目标图像进行处理,得到所述目标图像对应的概率集合,其中,所述预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA(Winner Take All,胜者为王)网络,所述多层贝叶斯网络的神经元为所述多层贝叶斯网络中的WTA网络包括的神经元,所述多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,所述概率集合包括所述预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率;
根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别。
根据本公开实施例提供的方法,接收目标图像;基于预先训练的多层贝叶斯网络,对所述目标图像进行处理,得到所述目标图像对应的概率集合,其中,所述预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA网络,所述多层贝叶斯网络的神经元为所述多层贝叶斯网络中的WTA网络包括的神经元,所述多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,所述概率集合包括所述预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率;根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别。通过平均场分布公式逼近复杂的不好计算的后验概率公式,在可以取得相似结果的同时,大大降低了计算的复杂度,使得计算机可以实现实际计算。进而,突破了计算量的限制,在实际中可以采用多层贝叶斯网络完成图像的分类操作。
在一种可能的实现方式中,所述根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别,包括:
在所述输出层的神经元中确定目标神经元,其中,所述目标神经元的发放脉冲的概率是所述概率集合中最大的概率;
基于预设的输出层的神经元与类别的对应关系,确定所述目标神经元对应的目标类别为所述目标图像所属的类别。
在使用的过程中,因为在训练时确定好了输出层的神经元与类别的对应关系,因此,可以直接在输出层的神经元中确定目标神经元,目标神经元的发放脉冲的概率是概率集合中最大的概率。目标神经元可以是一个或者是多个。最后根据目标神经元代表的类别,确定目标图像的类别。
在一种可能的实现方式中,在所述动态发放函数中,任一神经元的膜电位,是根据所述任一神经元所属的WTA网络的所有子WTA网络中的所有神经元输出的电流,以及所述任一神经元所属的WTA网络的父WTA网络中的所有神经元输出的电流确定的,其中,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点,任一WTA网络的子WTA网络对应的节点是所述任一WTA网络对应的节点的子节点。
在一种可能的实现方式中,所述动态发放函数为:
其中,为编号为l的WTA网络中编号为j的神经元的膜电位;为编号为l的WTA网络中编号为j的神经元对应的预设偏置值;为编号为c的WTA网络中编号为i的神经元输出的电流;编号为ch(l)的WTA网络为编号为l的WTA网络的子WTA网络;为编号为pa(l)的WTA网络中编号为k的神经元输出的电流;编号为pa(l)的WTA网络为编号为l的WTA网络的父WTA网络;为连接编号为c的WTA网络中编号为i的神经元和编号为c的WTA网络的父WTA网络中编号为j的神经元的突触;为连接编号为l的WTA网络中编号为j的神经元和编号为l的WTA网络的父WTA网络中编号为k的神经元的突触;为编号为l的WTA网络中编号为j的神经元的发放脉冲的概率;ρ0为第一预设数值;K为编号为l的WTA网络中所有神经元的数量,为编号为l的WTA网络中编号为n的神经元的膜电位;j为编号为l的WTA网络中任一神经元的编号;l为所述预先训练的多层贝叶斯网络中任一WTA网络的编号;i为编号为c的WTA网络中任一神经元的编号;k为编号为pa(l)的WTA网络中任一神经元的编号。
当神经元的膜电位按照上述公式进行变化时,平均场Q最为逼近后验概率P。
在一种可能的实现方式中,在接收携带有目标图像的分类请求之前,所述方法还包括:
根据多种预设类别的样本图像和突触学习函数,对所述待训练的多层贝叶斯网络进行训练,得到所述预先训练的多层贝叶斯网络,其中,所述突触学习函数是基于所述平均场分布公式建立的,且建立的条件为任一神经元的发放脉冲的概率不受其他神经元的发放脉冲的概率影响。
在一种可能的实现方式中,在所述突触学习函数中,连接第一神经元和第二神经元的突触的调整值,是基于所述第二神经元发放脉冲的时刻,以及所述第一神经元发放脉冲的时刻确定的,其中,所述第二神经元为所述第一神经元的所属的WTA网络的父WTA网络中的神经元,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点。
在一种可能的实现方式中,所述突触学习函数为:
其中,为连接编号为l的WTA网络中编号为i的神经元和编号为l的WTA网络的父WTA网络中编号为j的神经元的突触的调整值;当编号为pa(l)的WTA网络中编号为j的神经元在任一时刻t发放脉冲时,否则编号为pa(l)的WTA网络为编号为l的WTA网络的父WTA网络;s为编号为pa(l)的WTA网络中编号为j的神经元发放脉冲的时刻减去编号为l的WTA网络中编号为i的神经元发放脉冲的时刻的时间差;当编号为l的WTA网络中编号为i的神经元在t-s时刻发放脉冲时,否则a为第二预设数值;Aw为第三预设数值;i为编号为l的WTA网络中任一神经元的编号;l为所述待训练的多层贝叶斯网络中任一WTA网络的编号;j为编号为pa(l)的WTA网络中任一神经元的编号;W(s)为:
其中,τ1为第四预设数值;τ2为第五预设数值。
通过平均场Q去确定多层贝叶斯网络的似然函数的下界的计算复杂度为O(KN),比原始的计算复杂度O(KN)大大降低了。
在一种可能的实现方式中,在接收携带有目标图像的分类请求之前,所述方法还包括:
将每种类别的至少一个样本图像,分别输入所述预先训练的多层贝叶斯网络,得到每种类别的至少一个样本图像中每个样本图像对应的概率集合;
根据所述每个样本图像对应的概率集合中最大的概率对应的神经元,以及每个样本图像的类别,建立所述输出层的神经元与类别的对应关系。
在输出层中的某些神经元会发放脉冲,例如有10个神经元,其中神经元A组的5个神经元代表输入的图像是狗的图像,其中神经元B组的5个神经元代表输入的图像是兔子的图像。假如最终,神经元A组中有4个神经元发放脉冲,神经元B组中没有神经元发放脉冲,则认为输入的图像是狗的图像。总之,可以根据发放脉冲最多的神经元代表的图像类别为输入的图像所属的类别。
根据本公开实施例的第二方面,提供一种图像分类装置,该装置包括至少一个模块,该至少一个模块用于实现上述第一方面所提供的图像分类方法。
根据本公开实施例的第三方面,提供了一种终端,所述终端包括处理器、存储器和接收器,其中:
所述接收器,用于接收目标图像;
所述处理器,用于所述存储器存储的基于预先训练的多层贝叶斯网络,对所述目标图像进行处理,得到所述目标图像对应的概率集合,其中,所述预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA网络,所述多层贝叶斯网络的神经元为所述多层贝叶斯网络中的WTA网络包括的神经元,所述多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,所述概率集合包括所述预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率;根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别。
在一种可能的实现方式中,所述处理器用于:
在所述输出层的神经元中确定目标神经元,其中,所述目标神经元的发放脉冲的概率是所述概率集合中最大的概率;
基于预设的输出层的神经元与类别的对应关系,确定所述目标神经元对应的目标类别为所述目标图像所属的类别。
在一种可能的实现方式中,在所述动态发放函数中,任一神经元的膜电位,是根据所述任一神经元所属的WTA网络的所有子WTA网络中的所有神经元输出的电流,以及所述任一神经元所属的WTA网络的父WTA网络中的所有神经元输出的电流确定的,其中,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点,任一WTA网络的子WTA网络对应的节点是所述任一WTA网络对应的节点的子节点。
在一种可能的实现方式中,所述处理器还用于:
根据多种预设类别的样本图像和突触学习函数,对所述待训练的多层贝叶斯网络进行训练,得到所述预先训练的多层贝叶斯网络,其中,所述突触学习函数是基于所述平均场分布公式建立的,且建立的条件为任一神经元的发放脉冲的概率不受其他神经元的发放脉冲的概率影响。
在一种可能的实现方式中,在所述突触学习函数中,连接第一神经元和第二神经元的突触的调整值,是基于所述第二神经元发放脉冲的时刻,以及所述第一神经元发放脉冲的时刻确定的,其中,所述第二神经元为所述第一神经元的所属的WTA网络的父WTA网络中的神经元,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点。
在一种可能的实现方式中,所述处理器还用于:
将每种类别的至少一个样本图像,分别输入所述预先训练的多层贝叶斯网络,得到每种类别的至少一个样本图像中每个样本图像对应的概率集合;
根据所述每个样本图像对应的概率集合中最大的概率对应的神经元,以及每个样本图像的类别,建立所述输出层的神经元与类别的对应关系。
根据本公开实施例的第四方面,提供了计算机可读存储介质,包括指令,当所述计算机可读存储介质在终端上运行时,使得所述终端执行上述第一方面所述的方法。
根据本公开实施例的第五方面,提供了一种包含指令的计算机程序产品,当所述计算机程序产品在终端上运行时,使得所述终端执行上述第一方面所述的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
根据本公开实施例提供的方法,接收目标图像;基于预先训练的多层贝叶斯网络,对所述目标图像进行处理,得到所述目标图像对应的概率集合,其中,所述预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA网络,所述多层贝叶斯网络的神经元为所述多层贝叶斯网络中的WTA网络包括的神经元,所述多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,所述概率集合包括所述预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率;根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别。通过平均场分布公式逼近复杂的不好计算的后验概率公式,在可以取得相似结果的同时,大大降低了计算的复杂度,使得计算机可以实现实际计算。进而,突破了计算量的限制,在实际中可以采用多层贝叶斯网络完成图像的分类操作。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。在附图中:
图1是根据一示例性实施例示出的一种终端的结构示意图;
图2是根据一示例性实施例示出的一种图像分类方法的流程示意图;
图3-a是根据一示例性实施例示出的一种图像分类方法的示意图;
图3-b是根据一示例性实施例示出的一种图像分类方法的示意图;
图3-c是根据一示例性实施例示出的一种图像分类方法的示意图;
图4是根据一示例性实施例示出的一种W(s)的函数曲线示意图;
图5是根据一示例性实施例示出的一种图像分类装置的结构示意图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本发明实施例提供了一种图像分类方法,该方法可以由终端实现。其中,终端可以是手机、电脑、平板电脑等设备。
终端可以包括处理器110、接收器120,接收器120可以与处理器110连接,如图1所示。接收器120可以用于接收目标图像,接收器120可以是网卡。终端还可以包括加速部件(可称为加速器),当加速部件为网络加速部件时,加速部件可以为网卡。处理器110可以是终端的控制中心,利用各种接口和线路连接整个终端的各个部分,如接收器120等。在本发明中,处理器110可以是CPU(Central Processing Unit,中央处理器),可以用于基于预先训练的多层贝叶斯网络,对目标图像进行处理,得到目标图像对应的概率集合,可选的,处理器110可以包括一个或多个处理单元;处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统,调制解调处理器主要处理无线通信。处理器110还可以是数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件等。终端还可以包括存储器130,存储器130可用于存储软件程序以及模块,处理器110通过读取存储在存储器的软件代码以及模块,从而执行终端的各种功能应用以及数据处理。
本公开一示例性实施例提供了一种图像分类方法,如图2所示,该方法可以包括:
步骤S210,接收目标图像。
在实施中,用户可以将目标图像(待分类图像)输入到终端中,或者终端从网络上获取目标图像。终端可以将接收到的目标图像输入到预先训练的多层贝叶斯网络中,以进行图像分类。
步骤S220,基于预先训练的多层贝叶斯网络,对目标图像进行处理,得到目标图像对应的概率集合。
其中,预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA网络,多层贝叶斯网络的神经元为多层贝叶斯网络中的WTA网络包括的神经元,多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,概率集合包括预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率。
在实施中,如图3-a所示,多层贝叶斯网络是多层结构,每层结构中又包括节点,例如第一层(输入层)包括节点r1、r2、r3、r4、r5、r6、r7和r8,第二层包括节点x1、x2、x3和x4,第三层包括节点y1和y2,第四层(输出层)包括节点k。对于输出层的节点来说,输出的是多种事件的概率,即目标图像属于某个类别事件的概率,例如P(A)=a,P(B)=b,P(C)=c……。
步骤S230,根据目标图像对应的概率集合中最大的概率,确定目标图像所属的类别。
在实施中,接上例,假如b大于a和c,则B事件发生的概率最大,目标属于B所代表的图像类别的概率也最大。
在使用多层贝叶斯网络之前,需要建立多层贝叶斯网络,以及对建立好的多层贝叶斯网络进行训练,在训练好多层贝叶斯网络之后,可以使用多层贝叶斯网络对图像进行分类。
在建立多层贝叶斯网络时,首先,可以先确定多层贝叶斯网络的网络结构,然后确定多层贝叶斯网络中上下层的连接关系。
原始的多层贝叶斯网络是用于根据能观测到的现象,推理导致该现象发生的事件发生的概率。如图3-a所示,在原始的多层贝叶斯网络中,每个节点代表的不是一个简单的数据,而是不同种事件发生的概率,即每个节点代表了不同种事件发生的概率的集合。既然每个节点代表的是不同种事件发生的概率的集合,可以将每个节点替换成多个神经元,多个神经元的数量和不同种事件的数量相一致。这样,每个神经元可以表示这个节点中任一事件发生的概率了。
可以用WTA网络代替原始的多层贝叶斯网络中的每个节点。如图3-b所示,在一个WTA网络中,存在K个兴奋神经元以及1个全局抑制神经元。兴奋神经元和全局抑制神经元之间的连接关系是双向连接关系。
全局抑制神经元可以接收兴奋神经元的输入信号β(t),t表示全局抑制神经元接收到兴奋神经元的输入信号的时刻。全局抑制神经元可以将接收到的输入信号β(t)反馈到与之连接的K个兴奋神经元中的任一个兴奋神经元上。兴奋神经元接收到反馈信号之后,有可能会发放脉冲,在t时刻发放脉冲的概率可以表示为ρk(t),k为第k个兴奋神经元的编号。ρk(t)的计算公式可见公式1。
其中,ρ0为第一预设数值。uk(t)为第k个兴奋神经元在t时刻的膜电位。
由于公式1的形式和单层贝叶斯网络中的后验概率公式的形式相似,因此,可以通过WTA网络的神经元发放脉冲的概率来实现贝叶斯网络中的后验概率(输出层的节点输出的数据可以称为后验概率)的计算。
用多个图3-b中的WTA网络代替图3-a中的原始的多层贝叶斯网络中的每个节点,得到的结果可见图3-c。需要说明的是,每条连接关系都可以是双向连接关系。在图3-c中,以编号为31的神经元为例,它可以是全局抑制神经元,和它连接的编号为11、12、13、14的神经元可以是兴奋神经元。而如果将编号为31的神经元看作是兴奋神经元时,和它连接的编号为41、42的神经元可以是全局抑制神经元,依此类推。在图3-c中,编号为I的节点为编号为A和B的节点的父节点。每个节点的父节点只有一个,子节点可以有多个。
在确定了多层贝叶斯网络的网络结构、上下层的连接关系之后,可以对网络中的参数、训练函数进行设置。
首先,假如Gl节点中包括k个神经元,为Gl节点中第k个神经元对应于原始的多层贝叶斯网络的变量的每一个可能的取值。例如,目标图像的像素点的像素的取值为0-255,Gl节点代表目标图像的一个像素点,Gl节点中包括256个神经元,每个神经元代表了一个像素点的可能的取值。Gl节点的取值可以设置为zl,则当Gl节点中的第k个神经元发放脉冲时,zl取值为k。
接着,设置连接两个神经元的之间的突触的取值。突触也可以称为权重。在原始的多层贝叶斯网络中,权重为条件概率,权重的计算公式可以见公式2。
logp(zl=i|zpa(l)=j)可以为当父节点中的神经元取值为j时,子节点的取值为i的概率。其中,神经元zpa(l)为神经元zl的父节点。
这样,神经元和突触的取值都可以用概率表示。
然后,假如输入层的节点为可见节点,除了输入层之外的所有节点为隐含节点。多层贝叶斯网络的联合概率为P(zh,zv|w),后验概率(输出层输出的结果)为P(zh|zv,w)。
由于本公开实施例中的贝叶斯网络是多层贝叶斯网络,因此需要从可见节点一层层迭代进上一层的隐含节点中,才能最终算出后验概率。就是由于层层迭代出的公式较为复杂,因此计算机无法实现计算。
上述迭代出的计算模型为复杂模型,可以通过简单模型去逼近复杂模型,这样采用简单模型去解决复杂模型要解决的问题,复杂模型无法实现计算,但是简单模型却可以。
具体可以通过后验概率的平均场Q。平均场Q的求解公式可以为:
其中,h为隐含节点的集合。为变分参数。为节点取值zl对变分参数的条件概率。
可以用平均场Q去逼近后验概率P,计算平均场Q和后验概率P的相对熵KL。相对熵表示平均场Q和后验概率P的逼近程度。当平均场Q完全逼近后验概率P时,KL等于0。相对熵的计算公式可见公式4。
要使得平均场Q尽量去逼近后验概率P,可以通过求KL(Q,P)的最小值获得。为了求KL(Q,P)的最小值,可以将公式4对φ求偏导,并且另偏导的结果等于0,得到公式5。
其中,pa(l)为父节点的编码,ch(l)为子节点的编码集合。;为连接编号为c的WTA网络中编号为i的神经元和编号为c的WTA网络的父WTA网络中编号为j的神经元的突触。为连接编号为l的WTA网络中编号为j的神经元和编号为l的WTA网络的父WTA网络中编号为k的神经元的突触。为编号为l的WTA网络中针对编号为j的神经元设置的偏置。
假如设变分参数为神经元在t时刻输出的电流,即即可以获得多层贝叶斯网络中的动态发放函数。
可选地,在动态发放函数中,任一神经元的膜电位,是根据任一神经元所属的WTA网络的所有子WTA网络中的所有神经元输出的电流,以及任一神经元所属的WTA网络的父WTA网络中的所有神经元输出的电流确定的,其中,任一WTA网络的父WTA网络对应的节点是任一WTA网络对应的节点的父节点,任一WTA网络的子WTA网络对应的节点是任一WTA网络对应的节点的子节点。
动态发放函数为:
其中,为编号为l的WTA网络中编号为j的神经元的膜电位;为编号为l的WTA网络中编号为j的神经元对应的预设偏置值;为编号为c的WTA网络中编号为i的神经元输出的电流;编号为ch(l)的WTA网络为编号为l的WTA网络的子WTA网络;为编号为pa(l)的WTA网络中编号为k的神经元输出的电流;编号为pa(l)的WTA网络为编号为l的WTA网络的父WTA网络;为连接编号为c的WTA网络中编号为i的神经元和编号为c的WTA网络的父WTA网络中编号为j的神经元的突触;为连接编号为l的WTA网络中编号为j的神经元和编号为l的WTA网络的父WTA网络中编号为k的神经元的突触;为编号为l的WTA网络中编号为j的神经元的发放脉冲的概率;ρ0为第一预设数值;K为编号为l的WTA网络中所有神经元的数量,为编号为l的WTA网络中编号为n的神经元的膜电位;j为编号为l的WTA网络中任一神经元的编号;l为预先训练的多层贝叶斯网络中任一WTA网络的编号;i为编号为c的WTA网络中任一神经元的编号;k为编号为pa(l)的WTA网络中任一神经元的编号。
当神经元的膜电位按照公式6的方式进行变化时,平均场Q最为逼近后验概率P。
其中,是神经元在t时刻发放脉冲的概率。
在获得了动态发放函数中之后,在训练多层贝叶斯网络模型的过程中,需要对其中的突触进行训练。具体训练方式还是要参照突触学习函数进行训练。
可选地,根据多种预设类别的样本图像和突触学习函数,对待训练的多层贝叶斯网络进行训练,得到预先训练的多层贝叶斯网络。其中,突触学习函数是基于平均场分布公式建立的,且建立的条件为任一神经元的发放脉冲的概率不受其他神经元的发放脉冲的概率影响。
下面介绍具体建立突触学习函数的方法:
首先,多层贝叶斯网络的目标函数是最大化似然函数logP(zv|w)的下界。其中,似然函数的下界可以表示为公式8。
由于已经得到了平均场Q,可以使用平均场Q近似表达似然函数的下界,见公式9。
假设每个神经元发放脉冲的概率都是独立的,即任一神经元的发放脉冲的概率不受其他神经元的发放脉冲的概率的影响,则平均场Q可分,即
原始的多层贝叶斯网络中包括N个隐含节点,每个隐含节点都有K个不同种事件的概率,那么所有的隐含节点的总状态有KN个,计算复杂度为O(KN)。其中,计算复杂度由求和项的数量决定。
当平均场Q可分时,有其中形如的小分式,有K个求和项。求平均场Q时,总共就有KN个求和项,计算复杂度为O(KN)。
由以上可知,通过平均场Q去确定多层贝叶斯网络的似然函数的下界的计算复杂度为O(KN),比原始的计算复杂度O(KN)大大降低了。
可选地,在突触学习函数中,连接第一神经元和第二神经元的突触的调整值,是基于第二神经元发放脉冲的时刻,以及第一神经元发放脉冲的时刻确定的,其中,第二神经元为第一神经元的所属的WTA网络的父WTA网络中的神经元,任一WTA网络的父WTA网络对应的节点是任一WTA网络对应的节点的父节点。
若要获得突触的表达式,可以用F(Q,w)对w求偏导,并且另偏导结果等于0,就可以得到突触的表达式,如公式10。
其中,表示变量x的概率与平均场的乘积。
如要获得突触学习函数可以对公式10进行微分,就可以获得到突触学习函数,见公式11。
其中,为连接编号为l的WTA网络中编号为i的神经元和编号为l的WTA网络的父WTA网络中编号为j的神经元的突触的调整值;当编号为pa(l)的WTA网络中编号为j的神经元在任一时刻t发放脉冲时,否则编号为pa(l)的WTA网络为编号为l的WTA网络的父WTA网络;s为编号为pa(l)的WTA网络中编号为j的神经元发放脉冲的时刻减去编号为l的WTA网络中编号为i的神经元发放脉冲的时刻的时间差;当编号为l的WTA网络中编号为i的神经元在t-s时刻发放脉冲时,否则a为第二预设数值;Aw为第三预设数值;i为编号为l的WTA网络中任一神经元的编号;l为待训练的多层贝叶斯网络中任一WTA网络的编号;j为编号为pa(l)的WTA网络中任一神经元的编号;W(s)为:
其中,τ1为第四预设数值;τ2为第五预设数值。当s小于0时,W(s)为α,α是第六预设数值。W(s)的函数曲线可见图4,其中,tpost为编号为pa(l)的WTA网络中编号为j的神经元发放脉冲的时刻,tpre为编号为l的WTA网络中编号为i的神经元发放脉冲的时刻。
在得到动态发放函数之后,就可以确定神经元的膜电位,继而可以确定它是否发放脉冲,即发放脉冲的概率。然后,就可以确定这个神经元向外输出的电流。接着,又可以确定与这个神经元连接的神经元接收到电流后膜电位的变化值。依此类推,最终可以得到整个网络模型中各个神经元发放脉冲的概率。在确定神经元发放脉冲的概率的同时,又可以根据突触学习函数确定突触的调整值。在得到突触的调整值之后,基于原突触的值,可以对突触进行更新。在第一个计算周期,可以确定各个神经元发放脉冲的概率,继而可以确定更新的突触。在第二个计算周期,因为在第一个周期突触有所更新了,因此,第二个计算周期可以利用第一个周期更新的突触重新计算一遍各个神经元发放脉冲的概率。如此经过多次之后,可以得到合适的突触,即对多层贝叶斯网络完成训练。
具体在训练的过程中,可以将大量的没有分类的图像输入到多层贝叶斯网络中。需要说明的是,无需给这些没有分类的图像人工进行分类作为机器分类的参考结果,多层贝叶斯网络的训练是无监督训练,可以自动找寻这些没有分类的图像的规律,并将有相同规律的图像作为一类。
以一张图像举例,假如该图像包含28×28个像素点,则输入层包含784个可见节点。如果该图是彩色图,为了简化可以将该图转化为二值图,这样每个像素非黑即白,像素点的像素值为0或者1,这样,每个可见节点可以包括2个神经元,其中1个神经元当对应的像素点的像素值为0时发放脉冲,另1个神经元当对应的像素点的像素值为1时发放脉冲。输入层共包含1568个神经元。可以采用脉宽为500ms的脉冲序列将图像输入到输入层中,换句话说是当像素点的像素值为1时,神经元发放脉冲的脉宽为500ms。
接着,在输入层有了数据输入之后,可以确定输入层中的神经元输出的电流,之后就可以联合突触确定和输入层连接的层中的神经元的膜电位,随后就可以确定和输入层连接的层中的神经元发放脉冲的概率。连接上述两个神经元之间的突触就可以依据公式8确定。通过公式11可以确定突触的调整值,新的突触就可以通过公式13确定。
其中,等号左边的为新的突触,等号右边的为原始的突触。Υ为学习率,可以根据训练情况进行设定。
在获得新的突触之后,会促进该突触连接的两个神经元的膜电位进一步进行变化。但是这个变化需要在下一个计算周期进行计算。当前的计算周期只计算一次神经元的膜电位、突触、突触的调整值。随着周期的推进,可以不断地对神经元的膜电位、突触、突触的调整值进行更新迭代,直到最后突触满足训练需求为止。
可选地,在接收携带有目标图像的分类请求之前,该方法还包括:将每种类别的至少一个样本图像,分别输入预先训练的多层贝叶斯网络,得到每种类别的至少一个样本图像中每个样本图像对应的概率集合;根据每个样本图像对应的概率集合中最大的概率对应的神经元,以及每个样本图像的类别,建立输出层的神经元与类别的对应关系。
在输出层中的某些神经元会发放脉冲(也可以说发放脉冲的概率最大),例如有10个神经元,其中神经元A组的5个神经元代表输入的图像是狗的图像,其中神经元B组的5个神经元代表输入的图像是兔子的图像。假如最终,神经元A组中有4个神经元发放脉冲,神经元B组中没有神经元发放脉冲,则认为输入的图像是狗的图像。总之,可以根据发放脉冲最多的神经元代表的图像类别为输入的图像所属的类别。
可选地,步骤S230可以包括:在输出层的神经元中确定目标神经元,其中,目标神经元的发放脉冲的概率是概率集合中最大的概率;基于预设的输出层的神经元与类别的对应关系,确定目标神经元对应的目标类别为目标图像所属的类别。
在使用的过程中,因为在训练时确定好了输出层的神经元与类别的对应关系,因此,可以直接在输出层的神经元中确定目标神经元,目标神经元的发放脉冲的概率是概率集合中最大的概率。目标神经元可以是一个或者是多个。最后根据目标神经元代表的类别,确定目标图像的类别。
根据本公开实施例提供的方法,接收目标图像;基于预先训练的多层贝叶斯网络,对目标图像进行处理,得到目标图像对应的概率集合,其中,预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA网络,多层贝叶斯网络的神经元为多层贝叶斯网络中的WTA网络包括的神经元,多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,概率集合包括预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率;根据目标图像对应的概率集合中最大的概率,确定目标图像所属的类别。通过平均场分布公式逼近复杂的不好计算的后验概率公式,在可以取得相似结果的同时,大大降低了计算的复杂度,使得计算机可以实现实际计算。进而,突破了计算量的限制,在实际中可以采用多层贝叶斯网络完成图像的分类操作。
本公开一示例性实施例提供了一种图像分类装置,如图5所示,所述装置包括:
接收模块510,用于接收目标图像;具体可以实现上述步骤S210中的接收功能,以及其他隐含步骤。
处理模块520,用于基于预先训练的多层贝叶斯网络,对所述目标图像进行处理,得到所述目标图像对应的概率集合,其中,所述预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA网络,所述多层贝叶斯网络的神经元为所述多层贝叶斯网络中的WTA网络包括的神经元,所述多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,所述概率集合包括所述预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率;具体可以实现上述步骤S220中的处理功能,以及其他隐含步骤。
确定模块530,用于根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别。具体可以实现上述步骤S230中的确定功能,以及其他隐含步骤。
可选地,所述确定模块530用于:
在所述输出层的神经元中确定目标神经元,其中,所述目标神经元的发放脉冲的概率是所述概率集合中最大的概率;
基于预设的输出层的神经元与类别的对应关系,确定所述目标神经元对应的目标类别为所述目标图像所属的类别。
可选地,在所述动态发放函数中,任一神经元的膜电位,是根据所述任一神经元所属的WTA网络的所有子WTA网络中的所有神经元输出的电流,以及所述任一神经元所属的WTA网络的父WTA网络中的所有神经元输出的电流确定的,其中,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点,任一WTA网络的子WTA网络对应的节点是所述任一WTA网络对应的节点的子节点。
可选地,所述动态发放函数为:
其中,为编号为l的WTA网络中编号为j的神经元的膜电位;为编号为l的WTA网络中编号为j的神经元对应的预设偏置值;为编号为c的WTA网络中编号为i的神经元输出的电流;编号为ch(l)的WTA网络为编号为l的WTA网络的子WTA网络;为编号为pa(l)的WTA网络中编号为k的神经元输出的电流;编号为pa(l)的WTA网络为编号为l的WTA网络的父WTA网络;为连接编号为c的WTA网络中编号为i的神经元和编号为c的WTA网络的父WTA网络中编号为j的神经元的突触;为连接编号为l的WTA网络中编号为j的神经元和编号为l的WTA网络的父WTA网络中编号为k的神经元的突触;为编号为l的WTA网络中编号为j的神经元的发放脉冲的概率;ρ0为第一预设数值;K为编号为l的WTA网络中所有神经元的数量,为编号为l的WTA网络中编号为n的神经元的膜电位;j为编号为l的WTA网络中任一神经元的编号;l为所述预先训练的多层贝叶斯网络中任一WTA网络的编号;i为编号为c的WTA网络中任一神经元的编号;k为编号为pa(l)的WTA网络中任一神经元的编号。
可选地,所述装置还包括:
训练模块,用于根据多种预设类别的样本图像和突触学习函数,对所述待训练的多层贝叶斯网络进行训练,得到所述预先训练的多层贝叶斯网络,其中,所述突触学习函数是基于所述平均场分布公式建立的,且建立的条件为任一神经元的发放脉冲的概率不受其他神经元的发放脉冲的概率影响。
可选地,在所述突触学习函数中,连接第一神经元和第二神经元的突触的调整值,是基于所述第二神经元发放脉冲的时刻,以及所述第一神经元发放脉冲的时刻确定的,其中,所述第二神经元为所述第一神经元的所属的WTA网络的父WTA网络中的神经元,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点。
可选地,所述突触学习函数为:
其中,为连接编号为l的WTA网络中编号为i的神经元和编号为l的WTA网络的父WTA网络中编号为j的神经元的突触的调整值;当编号为pa(l)的WTA网络中编号为j的神经元在任一时刻t发放脉冲时,否则编号为pa(l)的WTA网络为编号为l的WTA网络的父WTA网络;s为编号为pa(l)的WTA网络中编号为j的神经元发放脉冲的时刻减去编号为l的WTA网络中编号为i的神经元发放脉冲的时刻的时间差;当编号为l的WTA网络中编号为i的神经元在t-s时刻发放脉冲时,否则a为第二预设数值;Aw为第三预设数值;i为编号为l的WTA网络中任一神经元的编号;l为所述待训练的多层贝叶斯网络中任一WTA网络的编号;j为编号为pa(l)的WTA网络中任一神经元的编号;W(s)为:
其中,τ1为第四预设数值;τ2为第五预设数值。
可选地,所述装置还包括:
输入模块,用于将每种类别的至少一个样本图像,分别输入所述预先训练的多层贝叶斯网络,得到每种类别的至少一个样本图像中每个样本图像对应的概率集合;
建立模块,用于根据所述每个样本图像对应的概率集合中最大的概率对应的神经元,以及每个样本图像的类别,建立所述输出层的神经元与类别的对应关系。
需要说明的是,上述接收模块510、处理模块520和确定模块530可以由处理器实现,或者处理器配合存储器来实现,或者,处理器执行存储器中的程序指令来实现。
通过平均场分布公式逼近复杂的不好计算的后验概率公式,在可以取得相似结果的同时,大大降低了计算的复杂度,使得计算机可以实现实际计算。进而,突破了计算量的限制,在实际中可以采用多层贝叶斯网络完成图像的分类操作。
需要说明的是:上述实施例提供的图像分类装置在进行图像分类时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将终端的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的图像分类装置与图像分类方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (14)
1.一种图像分类方法,其特征在于,所述方法包括:
接收目标图像;
基于预先训练的多层贝叶斯网络,对所述目标图像进行处理,得到所述目标图像对应的概率集合,其中,所述预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA(Winner Take All,胜者为王)网络,所述多层贝叶斯网络的神经元为所述多层贝叶斯网络中的WTA网络包括的神经元,所述多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,所述概率集合包括所述预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率;
根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别,包括:
在所述输出层的神经元中确定目标神经元,其中,所述目标神经元的发放脉冲的概率是所述概率集合中最大的概率;
基于预设的输出层的神经元与类别的对应关系,确定所述目标神经元对应的目标类别为所述目标图像所属的类别。
3.根据权利要求1所述的方法,其特征在于,在所述动态发放函数中,任一神经元的膜电位,是根据所述任一神经元所属的WTA网络的所有子WTA网络中的所有神经元输出的电流,以及所述任一神经元所属的WTA网络的父WTA网络中的所有神经元输出的电流确定的,其中,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点,任一WTA网络的子WTA网络对应的节点是所述任一WTA网络对应的节点的子节点。
4.根据权利要求1所述的方法,其特征在于,在接收携带有目标图像的分类请求之前,所述方法还包括:
根据多种预设类别的样本图像和突触学习函数,对所述待训练的多层贝叶斯网络进行训练,得到所述预先训练的多层贝叶斯网络,其中,所述突触学习函数是基于所述平均场分布公式建立的,且建立的条件为任一神经元的发放脉冲的概率不受其他神经元的发放脉冲的概率影响。
5.根据权利要求4所述的方法,其特征在于,在所述突触学习函数中,连接第一神经元和第二神经元的突触的调整值,是基于所述第二神经元发放脉冲的时刻,以及所述第一神经元发放脉冲的时刻确定的,其中,所述第二神经元为所述第一神经元的所属的WTA网络的父WTA网络中的神经元,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点。
6.根据权利要求1所述的方法,其特征在于,在接收携带有目标图像的分类请求之前,所述方法还包括:
将每种类别的至少一个样本图像,分别输入所述预先训练的多层贝叶斯网络,得到每种类别的至少一个样本图像中每个样本图像对应的概率集合;
根据所述每个样本图像对应的概率集合中最大的概率对应的神经元,以及每个样本图像的类别,建立所述输出层的神经元与类别的对应关系。
7.一种图像分类装置,其特征在于,所述装置包括
接收模块,用于接收目标图像;
处理模块,用于基于预先训练的多层贝叶斯网络,对所述目标图像进行处理,得到所述目标图像对应的概率集合,其中,所述预先训练的多层贝叶斯网络中的每个节点分别对应一个WTA网络,所述多层贝叶斯网络的神经元为所述多层贝叶斯网络中的WTA网络包括的神经元,所述多层贝叶斯网络中的动态发放函数是基于平均场分布公式建立的,所述概率集合包括所述预先训练的多层贝叶斯网络的输出层中每个神经元的发放脉冲的概率;
确定模块,用于根据所述目标图像对应的概率集合中最大的概率,确定所述目标图像所属的类别。
8.根据权利要求7所述的装置,其特征在于,所述确定模块用于:
在所述输出层的神经元中确定目标神经元,其中,所述目标神经元的发放脉冲的概率是所述概率集合中最大的概率;
基于预设的输出层的神经元与类别的对应关系,确定所述目标神经元对应的目标类别为所述目标图像所属的类别。
9.根据权利要求7所述的装置,其特征在于,在所述动态发放函数中,任一神经元的膜电位,是根据所述任一神经元所属的WTA网络的所有子WTA网络中的所有神经元输出的电流,以及所述任一神经元所属的WTA网络的父WTA网络中的所有神经元输出的电流确定的,其中,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点,任一WTA网络的子WTA网络对应的节点是所述任一WTA网络对应的节点的子节点。
10.根据权利要求7所述的装置,其特征在于,所述装置还包括:
训练模块,用于根据多种预设类别的样本图像和突触学习函数,对所述待训练的多层贝叶斯网络进行训练,得到所述预先训练的多层贝叶斯网络,其中,所述突触学习函数是基于所述平均场分布公式建立的,且建立的条件为任一神经元的发放脉冲的概率不受其他神经元的发放脉冲的概率影响。
11.根据权利要求10所述的装置,其特征在于,在所述突触学习函数中,连接第一神经元和第二神经元的突触的调整值,是基于所述第二神经元发放脉冲的时刻,以及所述第一神经元发放脉冲的时刻确定的,其中,所述第二神经元为所述第一神经元的所属的WTA网络的父WTA网络中的神经元,任一WTA网络的父WTA网络对应的节点是所述任一WTA网络对应的节点的父节点。
12.根据权利要求7所述的装置,其特征在于,所述装置还包括:
输入模块,用于将每种类别的至少一个样本图像,分别输入所述预先训练的多层贝叶斯网络,得到每种类别的至少一个样本图像中每个样本图像对应的概率集合;
建立模块,用于根据所述每个样本图像对应的概率集合中最大的概率对应的神经元,以及每个样本图像的类别,建立所述输出层的神经元与类别的对应关系。
13.一种计算机可读存储介质,其特征在于,包括指令,当所述计算机可读存储介质在终端上运行时,使得所述终端执行所述权利要求1-6中任一权利要求所述的方法。
14.一种包含指令的计算机程序产品,其特征在于,当所述计算机程序产品在终端上运行时,使得所述终端执行所述权利要求1-6中任一权利要求所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810325202.1A CN109902701A (zh) | 2018-04-12 | 2018-04-12 | 图像分类方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810325202.1A CN109902701A (zh) | 2018-04-12 | 2018-04-12 | 图像分类方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109902701A true CN109902701A (zh) | 2019-06-18 |
Family
ID=66943105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810325202.1A Pending CN109902701A (zh) | 2018-04-12 | 2018-04-12 | 图像分类方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109902701A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428410A (zh) * | 2019-07-31 | 2019-11-08 | 腾讯医疗健康(深圳)有限公司 | 眼底医学图像处理方法、装置、设备及存储介质 |
CN112182268A (zh) * | 2020-09-27 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 一种图像分类方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100257127A1 (en) * | 2007-08-27 | 2010-10-07 | Stephen Patrick Owens | Modular, folder based approach for semi-automated document classification |
US20120087547A1 (en) * | 2010-10-12 | 2012-04-12 | Ncr Corporation | Produce recognition method |
CN106469170A (zh) * | 2015-08-18 | 2017-03-01 | 阿里巴巴集团控股有限公司 | 文本数据的处理方法和装置 |
CN107633044A (zh) * | 2017-09-14 | 2018-01-26 | 国家计算机网络与信息安全管理中心 | 一种基于热点事件的舆情知识图谱构建方法 |
-
2018
- 2018-04-12 CN CN201810325202.1A patent/CN109902701A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100257127A1 (en) * | 2007-08-27 | 2010-10-07 | Stephen Patrick Owens | Modular, folder based approach for semi-automated document classification |
US20120087547A1 (en) * | 2010-10-12 | 2012-04-12 | Ncr Corporation | Produce recognition method |
CN106469170A (zh) * | 2015-08-18 | 2017-03-01 | 阿里巴巴集团控股有限公司 | 文本数据的处理方法和装置 |
CN107633044A (zh) * | 2017-09-14 | 2018-01-26 | 国家计算机网络与信息安全管理中心 | 一种基于热点事件的舆情知识图谱构建方法 |
Non-Patent Citations (2)
Title |
---|
SHANGQI GUO ET.AL: "Hierarchical bayesian inference and learning in spiking neural networks", 《IEEE TRANSACTIONS ON CYBERNETICS》 * |
程环环 王润生: "利用贝叶斯网络融合空间上下文的高分辨遥感图像分类", 《计算机工程与科学》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428410A (zh) * | 2019-07-31 | 2019-11-08 | 腾讯医疗健康(深圳)有限公司 | 眼底医学图像处理方法、装置、设备及存储介质 |
CN110428410B (zh) * | 2019-07-31 | 2024-02-27 | 腾讯医疗健康(深圳)有限公司 | 眼底医学图像处理方法、装置、设备及存储介质 |
CN112182268A (zh) * | 2020-09-27 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 一种图像分类方法、装置、电子设备及存储介质 |
CN112182268B (zh) * | 2020-09-27 | 2024-04-05 | 北京达佳互联信息技术有限公司 | 一种图像分类方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110782042B (zh) | 横向联邦和纵向联邦联合方法、装置、设备及介质 | |
CN106575377B (zh) | 共同特征上的分类器更新 | |
CN110134774A (zh) | 一种基于注意力决策的图像视觉问答模型、方法和系统 | |
CN112631717B (zh) | 基于异步强化学习的网络服务功能链动态部署系统及方法 | |
CN106687995A (zh) | 分布式模型学习 | |
CN109903103B (zh) | 一种推荐物品的方法和装置 | |
Ke et al. | Optimizing online matching for ride-sourcing services with multi-agent deep reinforcement learning | |
CN113408209A (zh) | 跨样本联邦分类建模方法及装置、存储介质、电子设备 | |
CN112221159B (zh) | 一种虚拟道具推荐方法、装置及计算机可读存储介质 | |
US20160260024A1 (en) | System of distributed planning | |
CN109902701A (zh) | 图像分类方法和装置 | |
CN115545160A (zh) | 一种多学习行为协同的知识追踪方法及系统 | |
Ekárt et al. | Genetic programming with transfer learning for urban traffic modelling and prediction | |
CN109033288A (zh) | 一种基于bp神经网络的智能终端安全等级分类方法 | |
CN111353001B (zh) | 对用户进行分类的方法和装置 | |
CN109697511B (zh) | 数据推理方法、装置及计算机设备 | |
CN112183315A (zh) | 动作识别模型训练方法和动作识别方法及装置 | |
Fortier et al. | Learning Bayesian classifiers using overlapping swarm intelligence | |
WO2023138381A1 (zh) | 基于物品属性与时序模式耦合关系的序列推荐方法和系统 | |
CN110209704B (zh) | 用户匹配方法及设备 | |
Satur et al. | A context‐driven intelligent database processing system using object‐oriented fuzzy cognitive maps | |
CN114358186A (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
CN111709275A (zh) | 一种用于Affordance推理的深度网络构建方法 | |
Zhang et al. | Stm-gail: Spatial-Temporal meta-gail for learning diverse human driving strategies | |
CN117076090B (zh) | 任务模型的构建方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190618 |
|
RJ01 | Rejection of invention patent application after publication |