CN103443809B - 判别模型学习设备、方法和程序 - Google Patents

判别模型学习设备、方法和程序 Download PDF

Info

Publication number
CN103443809B
CN103443809B CN201280004786.3A CN201280004786A CN103443809B CN 103443809 B CN103443809 B CN 103443809B CN 201280004786 A CN201280004786 A CN 201280004786A CN 103443809 B CN103443809 B CN 103443809B
Authority
CN
China
Prior art keywords
model
domain knowledge
function
discrimination model
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280004786.3A
Other languages
English (en)
Other versions
CN103443809A (zh
Inventor
森永聪
藤卷辽平
河原吉伸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN103443809A publication Critical patent/CN103443809A/zh
Application granted granted Critical
Publication of CN103443809B publication Critical patent/CN103443809B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

为提供能有效地学习反映指示用于模型的用户的知识或分析意图的领域知识的判别模型,同时保持数据的拟合的判别模型学习设备。查询候选存储装置(81)将查询的候选存储为被给有指示用户的意图的领域知识的模型。正则化函数生成装置(82)基于被给予查询候选的领域知识,生成指示与领域知识的兼容性的正则化函数。模型学习装置(83)通过优化由损失函数定义的函数和为每一判别模型预定义的正则化函数,学习判别模型。

Description

判别模型学习设备、方法和程序
技术领域
本发明涉及用于学习判别数据的判别模型的判别模型学习设备、判别模型学习方法和判别模型学习程序。
背景技术
随着数据基础结构的最近快速发展,一个重要的工业目的是有效地处理大规模和大量数据。具体地,用于判别数据属于哪一类的技术是诸如数据挖掘和模式识别的许多应用中的主要技术之一。
利用数据判别技术的一个示例是预测未分类的数据。例如,当进行车辆故障诊断时,对从车辆获得的传感器数据和过去故障情形进行学习,由此生成用于判别故障的规则。然后,将所生成的规则应用于其中发生新故障的车辆的传感器数据(即未分类数据),由此指定在车辆中发生的故障或缩窄(预测)其原因。
数据判别技术还用于分析类别或因素间的差别。例如,当检验疾病和生活方式间的关系时,将待检验的群体分成有病的群体和无病的群体,以及仅学习用于判别两个群体的规则。例如,将由此学习的规则假定为“当目标者肥胖和吸烟,他/她具有疾病的高可能性”。在这种情况下,如果满足“肥胖”及“吸烟”两个条件,则怀疑它们是疾病的重要因素。
对于有关数据判别的问题,最重要的目的是如何学习指示用于从目标数据分类数据的规则的判别模型。由此,提出了用于基于过去情形或模拟数据,从给有类别信息的数据学习判别模型的许多方法。这些方法是使用判别标签的学习方法,称为“监督学习”。类别信息可以被表示为下面中的判别标签。NPTL1中描述了示例性的监督学习,诸如逻辑回归、支持向量机和判决树。
NPTL2中描述了半监督学习方法,其假定判别标签的分布并使用无判别标签的数据。NPTL2中描述了作为示例性半监督学习的拉普拉斯算子支持向量机。
NPTL3中描述了称为用于考虑数据性质的变化来执行判别学习的协移或域自适应的技术。
NPTL4中描述了学习判别模型所需的数据给出模型的估计的不确定性。
引用列表
非专利文献
NPTL1:Christopher Bishop,“Pattern Recognition and MachineLearning”,Springer,2006
NPTL2:Mikhail Belkin,Partha Niyogi,Vikas Sindhwani,“ManifoldRegularization:A Geometric Framework for Learning from Labeled andUnlabeled Examples”,Journal of Machine Learning Research(2006),Volume7,Issue48,p.2399-2434
NPTL3:Hidetoshi Shimodaira,“Improving predictive inferenceunder covariate shift by weighting the log-likelihood function”,Journal ofStatistical Planning and Inference,90(2),p.227-244,2000年10月
NPTL4:Burr Settles,“Active Learning Literature Survey”,Computer Sciences Technical Report1648,University ofWisconsin-Madison,2010
发明内容
技术问题
基于监督学习的判别学习具有下述问题。
第一个问题是由于给有判别标签的数据量少,显著地恶化待学习的模型的性能。该问题由相对于模型参数的搜索空间的大小的少量数据引起,并且当不能很好地优化参数时会引起该问题。
在基于监督学习的判别学习中,优化判别模型使得最小化由目标数据引起的判别误差。例如,对数似然函数用于逻辑回归,铰链损失函数用于支持向量机,以及信息增益函数用于判决树。然而,第二个问题是待学习的模型不一定与用户的知识匹配。通过其中将判别学习应用于车辆故障判别的情形来描述第二个问题。
图12是示出用于学习判别模型的示例性方法的说明图。在该示例中,假定作为异常加热发动机的结果,发动机中出现故障,由此对于其旋转出现异常高频分量。在图12中,带圆的数据指示故障数据以及带叉的数据指示正常数据。
在图12中所示的示例中,假定两个判别模型。一个是用于基于作为如由图12中所示的虚线91分类的故障原因的发动机温度进行判别的模型(判别模型1),以及另一个是用于基于作为如由图12中所示的虚线92分类的现象的发动机频率进行判别的模型(判别模型2)。
判别模型2是基于发动机是否损坏,就优化而言,从图12中例示的判别模型1和判别模型2选择的。这是因为当选择判别模型2时,能完全分离开包括数据93的正常和异常数据的组。另一方面,当实际应用故障判别时,能相当精确地进行判别并且基于原因的判别模型1比基于现象的判别模型2更优选。
第三个问题是通过数据自动优化的模型原则上不能捕获在数据中不存在的现象。
下面将通过示例来描述第三个问题。在此假定从特定体检的检查数据来预测肥胖风险(一个人未来是否会变肥胖)。目前,在日本,有责任对年满40或更年长的人进行该特定体验,由此获得详细的检查数据。因此,可以通过使用该检查数据来学习判别模型。
另一方面,可以使用判别模型来预防年轻人(诸如二十岁的人)的肥胖风险。然而,在这种情况下,在二十岁的人的数据与年满40或更年长的人的数据间,数据性质不同。因此,即使将四十岁的人的特性的判别模型应用于二十岁的人,也降低了判别结果的可靠性。
为解决第一问题,考虑通过NPTL2中所述的半监督学习来学习模型。已知当有关判别标签的分布的假定正确时,半监督学习对第一问题也有效。然而,即使通过半监督学习,也不能解决第二个问题。
在典型数据分析的情况下,执行用于先提取与类别有关的特征的特征提取或特征选择以便解决第二个问题。然而,当存在许多数据特征时,处理成本非常高的另一问题出现。此外,基于领域知识提取特征。然而,当所提取的特征与该数据不匹配时,导致判别准确度的大大降低。
如NPTL1中所述,提出了许多基于机器的自动特征选择方法。最有代表性的自动特征选择方法是判别学习,诸如L1正则化支持向量机和L1正则化逻辑回归。然而,基于机器的自动特征选择方法选择用于优化标准的特征,由此不能解决第二个问题。
NPTL3中所述的方法假定充分地获得包含在两组数据(在上述示例中,二十岁的人的数据和年满40或更年长的人的数据)中的数据并且两组数据的分布间的差别相对小。具体地,由于前者的限制,由NPTL3中所述的方法待学习的模型的应用被限制到事后分析两组充分收集的数据的应用。
因此,本发明的一个示例性目的是提供一种判别模型学习设备、判别模型学习方法和判别模型学习程序,其能够有效地学习反映指示用户的知识的领域知识或模型的分析意图的判别模型,同时保持对数据的拟合特性。
技术方案
根据本发明,提供一种判别模型学习设备,包括:查询候选存储装置,用于存储查询的候选,所述查询是被给有指示用户的意图的领域知识的模型;正则化函数生成装置,用于基于被给予查询候选的领域知识,生成指示与领域知识的兼容性的正则化函数;以及模型学习装置,用于通过优化由损失函数定义的函数和为每一判别模型预定义的正则化函数,来学习判别模型。
根据本发明,提供一种判别模型学习方法,包括步骤:基于被给予查询的候选的领域知识,生成指示与指示用户的意图的领域知识的兼容性的正则化函数,所述查询是被给有领域知识的模型,以及通过优化由损失函数定义的函数和为每一判别模型预定义的正则化函数,来学习判别模型。
根据本发明,提供一种判别模型学习程序,用于使计算机执行:正则化函数生成处理,基于被给予查询的候选的领域知识,生成指示与指示用户的意图的领域知识的兼容性的正则化函数,所述查询是被给有领域知识的模型;以及模型学习处理,通过优化由损失函数定义的函数和为每一判别模型预定义的正则化函数,来学习判别模型。
有益效果
根据本发明,能有效地学习反映领域知识的判别模型,同时保持对数据的拟合特性。
附图说明
图1描绘了示出根据本发明的第一示例性实施例的判别模型学习设备的示例性结构的框图;
图2描绘了示出根据第一示例性实施例的判别模型学习设备的示例性操作的流程图;
图3描绘了示出根据本发明的第二示例性实施例的判别模型学习设备的示例性结构的框图;
图4描绘了示出根据第二示例性实施例的判别模型学习设备的示例性操作的流程图;
图5描绘了示出根据本发明的第三示例性实施例的判别模型学习设备的示例性结构的框图;
图6描绘了示出根据第三示例性实施例的判别模型学习设备的示例性操作的流程图;
图7描绘了示出根据本发明的第四示例性实施例的判别模型学习设备的示例性结构的框图;
图8描绘了示出优化查询生成设备的示例性结构的框图;
图9描绘了示出根据第四示例性实施例的判别模型学习设备的示例性操作的流程图;
图10描绘了示出优化查询生成设备的示例性操作的流程图;
图11描绘了示出根据本发明的判别模型学习设备的概要的框图;以及
图12描绘了示出用于学习判别模型的示例性方法的说明图。
具体实施方式
在下文描述中,将一个数据项处理为一个D维向量数据项。通常不是以向量形式的、诸如文本或图像的数据也被处理为向量数据。在这种情况下,将数据转换成指示词在文本中的存在的向量(词袋模型)或指示特征元素在图像中存在的向量(特征袋模型),由此将通常不是以向量形式的数据处理为向量数据。
将第n个学习数据指示为Xn以及将第n个学习数据Xn的判别标签指示为yn。将当数据项的数量为N时的数据指示为XN(=X1,…,XN),以及将当数据项的数量为N时的判别标签指示为yN(=y1,…,yN)。首先,将描述判别学习的基本原理。判别学习是优化用于减少判别误差的函数(称为损失函数)的判别模型。即,假定判别模型为f(x),以及优化模型为f*(x),通过使用损失函数L(xN,yN,f),在公式1中表达学习问题。
[数学.1]
f * ( x ) = arg min f L ( x N , y N , f ) [公式1]
以无约束优化问题的形式表达公式1,但也可以在一定约束条件下优化。例如,在L1正则化逻辑回归模型的情况下,当将用于特征的权向量w定义为f(x)=wTx时,在公式2中特定地表达公式1。
[数学.2]
f * ( x ) = w * T x = arg min f Σ n = 1 N log ( 1 + exp ( - y n w T x ) ) + λ Σ d = 1 D | w d |
[公式2]
在公式2中,T指示向量或矩阵的转置。损失函数L(xN,yN,f)包括当f(x)被用作y的预测值或概率时的良好拟合,以及指示f(x)的复杂性的惩罚项。添加处罚项被称为正则化。执行正则化以便防止模型过适应数据。模型对数据的过适应也被称为过学习。在公式2中,λ是指示正则化的强度的参数。
在下文中,将描述示例性监督学习。当获得未被给予判别标签的数据时,可以采用从被给予判别标签的数据和未被给予判别标签的数据计算的损失函数。采用由这两种数据计算的损失函数,使得稍后所述的方法能应用于半监督学习。
[第一示例性实施例]
图1是示出根据本发明的第一示例性实施例的判别模型学习设备的示例性结构的框图。根据本示例性实施例的判别模型学习设备100包括输入设备101、输入数据存储单元102、模型学习设备103、查询候选存储单元104、领域知识输入设备105、领域知识存储单元106、知识正则化生成处理单元107和模型输出单元108。输入数据109和领域知识110被输入到判别模型学习设备100并从其输出判别模型111。
输入设备101用于输入该输入数据109。输入设备101输入该输入数据109以及分析所需的参数。输入数据109包含被给予判别标签的学习数据XN和yN,以及分析所需的参数。当未被给予判别标签的数据用于半监督学习时,为此还一起输入该数据。
输入数据存储单元102在其中存储由输入设备101输入的输入数据109。
模型学习设备103通过解决函数的优化问题,学习判别模型,其中将稍后所述的知识正则化生成处理单元107计算的正则化函数添加到先前设定(或先前指定为参数)的损失函数L(xN,yN,f)。与知识正则化生成处理单元107的下述说明一起,描述具体的计算示例。
查询候选存储单元104在其中存储先前被给予领域知识的候选模型。例如,当将线性函数f(x)=wTx用作判别模型时,查询候选存储单元104在其中存储包括不同值的w的候选值。在下文描述中,可以将被给予知识领域的候选模型表示为查询。查询可以包含由模型学习设备103学习的判别模型本身。
领域知识输入设备105包括用于输入用于查询候选的领域知识的界面。领域知识输入设备108通过任何方法,从在查询候选存储单元104中存储的查询候选选择查询,并输出(显示)被选查询候选。将在下文描述给予查询候选的示例性领域知识。
[第一示例性领域知识]
第一示例性领域知识指示模型候选是否适合于最终判别模型。具体地,当领域知识输入设备105输出模型候选时,由用户等等将该模型是否适合于最终判别模型作为领域知识输入到领域知识输入设备105。例如,当判别模型是线性函数时,领域知识输入设备105输出线性函数的权向量的候选值w′,然后,输入该模型是否匹配或该模型有多匹配。
[第二示例性领域知识]
第二示例性领域知识指示在模型候选中哪一模型更适合。具体地,当领域知识输入设备105输出模型候选时,由用户等等将这些模型相互比较,然后,将哪一模型更适合于最终判别模型输入为领域知识。例如,当判别模型是判决树时,领域知识输入设备105输出两个判决树模型f1(x)和f2(x),然后,由用户等等输入f1(x)和f2(x)中的哪一个更适合于判别模型。在此描述比较两个模型的示例,但也可以同时比较多个模型。
领域知识存储单元106中存储输入到领域知识输入设备105的领域知识。
知识正则化生成处理单元107读取存储在领域知识存储单元106中的领域知识,以及生成为了模型学习设备103可以优化模型所需的正则化函数。即,知识正则化生成处理单元107基于被给予查询的领域知识,生成正则化函数。所生成的正则化函数这里表达领域知识的拟合或约束,不同于用于表达与数据拟合的监督学习(或半监督学习)的常见损失函数。即,由知识正则化生成处理单元107生成的正则化函数可以表达与领域知识的兼容性。
在下文中,将进一步描述模型学习设备103和知识正则化生成处理单元107的操作。模型学习设备103优化判别模型,使得同时优化由知识正则化生成处理单元107生成的正则化函数以及指示与数据拟合(兼容)的用于监督学习(或半监督学习)的损失函数。例如,这通过解决在公式3中所表达的优化问题来实现。
[数学.3]
f * ( x ) = arg min f L ( x N , y N , f ) + KR
[公式3]
在公式3中,L(xN,yN,f)是用于在公式1中所解释的典型监督学习(或半监督学习)的损失函数。在公式3中,KR是由知识正则化生成处理单元107生成的正则化函数和约束条件。用这种方式优化判别模型,使得保持与数据拟合以及能有效地学习反映领域知识的模型。
在下述描述中,将描述如在公式3中解决在损失函数L(xN,yN,f)和正则化函数KR的总和中所表达的优化问题的情形。优化问题的目标可以被定义在两个函数的乘积中,或可以被定义为这两个函数的函数。在任一情形下,优化是类似可能的。根据待学习的判别模型,预先定义优化函数的形式。
在下文中,将描述正则化函数KR的具体示例。本发明的性质是通过数据的拟合,同时优化领域知识的拟合或约束。稍后所述的优化函数KR是满足该性质的示例性函数,也能容易定义满足该性质的其他函数。
[第一示例性知识正则化]
如在第一示例性领域知识中所述的示例,假定将领域知识输入为指示模型及其优良性(适合性)的信息。其中,将存储在领域知识存储单元106中的模型及其优良性对分别表示为(f1,z1),(f2,z2),…,(fM,zM)。该示例假定当f更类似于适合的模型或当f更不类似于不适合模型时,将正则化函数KR定义为具有更小值的函数。
通过正则化函数,如果在公式3中,损失函数L(xN,yN,f)的值可与之相比时,能看出更适合于领域知识的模型是更好的模型。
当线性函数用作判别模型以及将二进制(zm=±1)的领域知识被给予模型是否合适,例如,可以将KR定义为公式4。
[数学.4]
KR = Σ m = 1 M z m ( w - w m ) 2 [公式4]
在公式4的示例中,通过平方距离定义模型间的类似性,以及通过平方距离的系数zm定义该类似性。即使当指示模型的适合性的值zm不是二进制,定义指示模型间的类似性和由zm确定的系数的函数,使得对于典型的判别模型,也能类似地定义正则化函数KR。
[第二示例性知识正则化]
如在第二示例性领域知识中所述的示例,假定将领域知识输入为指示多个模型间的比较的信息。示例假定对模型f1=w1 Tx和模型f2=w2 Tx,输入指示模型f1比模型f2更适合的领域知识。在这种情况下,例如,能将KR定义成公式5。
[数学.5]
KR=ξ12
subject to(w-w1)2≤(w-w2)21212≥0 [公式5]
通过公式5,能看出当模型f1的损失函数L(xN,yN,f1)的值可与模型f2的损失函数L(xN,yN,f2)的值相比时,正则化函数的值更小的f1正确地优化成更适合的模型。
模型输出设备108输出由模型学习设备103学习的判别模型111。
通过根据程序(判别模型学习程序)操作的计算机中的CPU,实现模型学习设备103和知识正则化生成处理单元107。例如,程序存储在判别模型学习设备100的存储单元(未示出)中,以及CPU可以读取该程序并根据该程序,操作为模型学习设备103和知识正则化生成处理单元107。模型学习设备103和知识正则化生成处理单元107可以分别被实现在专用的硬件中。
可以通过例如磁盘实现输入数据存储单元102、查询候选存储单元104和领域知识存储单元106。可以通过用于接收从键盘或其他设备(未示出)传送的数据的接口,实现数据输入设备101。可以通过用于将数据存储在其中存储判别模型的存储单元(未示出)中的CPU,或用于在其上显示判别模型学习结果的显示设备,实现模型输出设备108。
下面将描述根据第一示例性实施例的判别模型学习设备的操作。图2是示出根据本示例性实施例的判别模型学习设备100的示例性操作的流程图。首先,输入设备101将输入数据109存储在输入数据存储单元102中(步骤S100)。
知识正则化生成处理单元107确认领域知识是否存储在领域知识存储单元106中(步骤S101)。当领域知识存储在领域知识存储单元106中时(步骤S101为是),知识正则化生成处理单元107计算正则化函数(步骤S102)。另一方面,当未存储领域知识时(步骤S101为否)或在计算正则化函数后,执行步骤S103和后续步骤中的处理。
然后,模型学习设备103学习判别模型(步骤S103)。具体地,当在步骤S102中计算正则化函数时,模型学习设备103使用所计算的正则化函数来学习判别模型。另一方面,当步骤S101中确定领域知识未存储在领域知识存储单元106中时,模型学习设备103不通过使用正则化函数来学习典型的判别模型。然后,模型学习设备103将所学习的判别模型作为查询候选存储在查询候选存储单元104中(步骤S104)。
然后,确定是否输入领域知识(步骤S105)。可以基于由用户等等是否输入指令来执行或在新查询候选存储在查询候选存储单元104中的条件下执行该确定处理。是否输入领域知识不限于该内容。
当在步骤S105中确定将输入领域知识时(步骤S105为是),领域知识输入设备105读取并输出指示领域知识将从查询候选存储单元104添加到的查询候选的信息。当由用户等等输入领域知识110时,例如,领域知识输入设备105将输入的领域知识存储在领域知识存储单元106中(步骤S106)。当输入领域知识时,重复从计算正则化函数的处理的步骤S102到输入领域知识的处理的步骤S106。
另一方面,当在步骤S105中确定不输入领域知识时(步骤S105为否),模型输出设备108确定完成输入领域知识,输出判别模型111(步骤S107),并终止该处理。
如上所述,根据本示例性实施例,知识正则化生成处理单元107基于被给予查询候选的领域知识,生成正则化函数,以及模型学习设备103优化通过使用损失函数定义的函数以及为每一判别模型预先定义的正则化函数,从而学习判别模型。由此,保持与数据的拟合并且能有效地学习反映领域知识的判别模型。
即,根据本示例性实施例的判别模型学习设备反映有关判别模型的学习的领域知识,由此获得与领域知识匹配的判别模型。具体地,同时优化对数据的判别准确度和基于用户的知识或意图而生成的正则化条件,由此反映领域知识和学习具有高准确度的判别模型。通过根据本示例性实施例的判别模型学习设备,输入用于模型的知识或意图,由此与单独地提取特征相比,能将领域知识更有效地反映在判别模型上。
[第二示例性实施例]
下面将描述根据本发明的第二示例性实施例的判别模型学习设备。根据本示例性实施例的判别模型学习设备不同于第一示例性实施例之处在于从为模型输入的领域知识来学习稍后所述的模型偏好,由此生成正则化函数。
图3是示出根据本发明的第二示例性实施例的判别模型学习设备的示例结构的框图。根据本示例性实施例的判别模型学习设备200不同于第一示例性实施例之处在于该判别模型学习设备包括模型偏好学习设备201以及用知识正则化生成处理单元202代替知识正则化生成处理单元107。与第一示例性实施例相同的构成用与图1中相同的数字表示,并省略其说明。
在第一示例性实施例中,输入领域知识以便用作正则化项,由此有效地实现与数据的拟合和反映领域知识两者。另一方面,需要输入很多领域知识以便实现适当正则化。
由此,根据第二示例性实施例的判别模型学习设备200基于所输入的领域知识来学习指示领域知识的函数(将其表示为模型偏好)。然后,由判别模型学习设备200学习的模型偏好用于正则化,由此即使当输入更少领域知识时,也能适当地生成正则化函数。
模型偏好学习设备201基于领域知识来学习模型偏好。接着,将模型偏好表示为模型f的函数g(f)。例如,当以二进制给出指示模型是否适合的领域知识时,模型偏好学习设备201能将g(f)学习为逻辑回归模型或支持向量机判别模型。
知识正则化生成处理单元202使用学习的模型偏好来生成正则化函数。正则化函数被配置成当模型偏好函数g(f)的值更大时(即,当估计模型f更好时)更优选的任意函数。
例如,假定通过线性函数f(x)=wTx定义模型f,以及通过线性函数g(f)=vTw定义函数g。其中,v是模型偏好的权函数,并且是通过模型偏好学习设备201优化的参数。在这种情况下,可以将正则化函数RK定义成如RK=log(1+exp(-g(f)))。
通过根据程序(判别模型学习程序)操作的计算机中的CPU,实现模型偏好学习设备201和知识正则化生成处理单元202。模型偏好学习设备201和知识正则化生成处理单元202可以分别实现在专用的硬件中。
在下文中将描述根据第二示例性实施例的判别模型学习设备200的操作。图4是示出根据本示例性实施例的判别模型学习设备200的示例性操作的流程图。在输入该输入数据109后从步骤S100至步骤S106的处理直到输入领域知识为止以及将所生成的判别模型存储在查询候选存储单元104中均与图2中例示的处理相同。
模型偏好学习设备201基于存储在领域知识存储单元106中的领域知识来学习模型偏好(步骤S201)。然后,知识正则化生成处理单元202使用所学习的模型偏好来生成正则化函数(步骤S202)。
如上所述,根据本示例性实施例,模型偏好学习设备201基于领域知识来学习模型偏好,以及知识正则化生成处理单元202使用所学习的模型偏好来生成正则化函数。由此,除第一示例性实施例的效果外,即使当输入较少领域知识时,也能适当地生成正则化函数。
[第三示例性实施例]
下面将描述根据本发明的第三示例性实施例的判别模型学习设备。在本示例性实施例中,设计出查询候选创建方法使得用户能有效地输入领域知识。
图5是示出根据本发明的第三示例性实施例的判别模型学习设备的示例性结构的框图。根据本示例性实施例的判别模型学习设备300不同于第一示例性实施例之处在于包括查询候选生成设备301。用与图1中相同的数字表示与第一示例性实施例相同的构成,并省略其说明。在第一示例性实施例和第二示例性实施例中,将领域知识给予存储在查询候选存储单元104中的查询候选以及基于所给予的领域知识生成的正则化项用于学习判别模型,由此有效地实现数据的拟合和领域知识的反映。在这种情况下,假定适当地生成查询候选。
在本示例性实施例中,将描述用于当适当的查询候选未存储在查询候选存储单元104时限制用于获得领域知识的成本增加和需要输入很多领域知识的方法。
查询候选生成设备301生成满足稍后所述的两个性质中的至少一个的查询候选,并将其存储在查询候选存储单元104中。第一性质是已经输入该领域知识的人能理解该模型。第二种性质是在查询候选中判别性能不明显低。
当查询候选生成设备301生成满足第一性质的查询候选时,存在对该查询候选降低用于获得领域知识的成本的效果。将通过线性判别模型描述用于获得领域知识的成本增加的示例性问题。
f(x)=wTx典型地被表达为D维线性组合。在此假定通过模型的权向量的候选值w′作为查询,查询100维数据(D=100)。在这种情况下,已经输入领域知识的人需要确认100维向量的w′,由此用于输入领域知识的成本增加。
通常,无论判别模型是线性还是非线性,诸如判决树,通过用于模型的更少输入特征,能易于确认模型。在这种情况下,能降低用于输入领域知识的成本。即,已经输入领域知识的人能理解该模型。
查询候选生成设备301在下述两个过程中生成满足第一性质的查询候选(或减少由用户给予领域知识的查询候选)。对于第一过程,查询候选生成设备301通过任意方法列出输入数据中的D维输入特征中的输入特征的少量组合。此时,查询候选生成设备301不需要列出特征的所有组合,以及可以列出将生成为查询候选的所需数量的特征。例如查询候选生成设备301从D维特征仅提取两个特征。
然后,对于第二过程,查询候选生成设备301仅对于所列出的组合中的每一个使用少量输入特征,来学习查询候选。此时,查询候选生成设备301能将任意方法用作查询候选学习方法。例如,查询候选生成设备301可以通过使用与模型学习设备103排除正则化函数KR来学习判别模型的方法相同的方法,来学习查询候选。
下面将描述第二特性。当查询候选生成设备301生成满足第二性质的查询候选时,存在排除不期望的查询候选来减少领域知识的输入数量的效果。
根据本发明的模型学习设备同时考虑领域知识和数据的拟合来优化判别模型。由此,当优化在公式3中表达的优化问题时,例如,也优化数据的拟合(损失函数L(xN,yN,f))并且由此不选择具有低判别准确度的模型。因此,即使当通过作为查询候选具有明显低的判别准确度的模型,将领域知识给予查询候选时,该查询在模型搜索空间外,由此是不期望的。
查询候选生成设备301在下述两个过程中生成满足第二性质的查询候选(或从多个查询删除具有明显低的判别准确度的查询的查询候选)。首先,对于第一过程,通过任意方法生成多个查询候选。例如,查询候选生成设备301可以通过使用与用于生成满足第一性质的查询候选的方法相同的方法,来生成查询候选。
对于第二过程,查询候选生成设备301计算所生成的查询候选的判别准确度。查询候选生成设备301确定查询候选的准确度是否明显低,以及从查询候选删除被确定为具有明显低的准确度的查询。例如,查询候选生成设备301可以通过从具有最高准确度的查询候选中的模型计算准确度的恶化程度,以及将该程度与预定阈值(或从数据计算的阈值)进行比较,来确定显著性。
用这种方式,在本示例性实施例中,通过查询候选生成设备来生成适当的查询候选。由此,模型学习设备103可以或可以不将所学习的判别模型存储在查询候选存储单元104中。
通过根据程序(判别模型学习程序)操作的计算中的CPU,实现查询候选生成设备301。查询候选生成设备301可以实现在专用的硬件中。
下面将描述根据第三示例性实施例的判别模型学习设备300的操作。图6是示出根据本示例性实施例的判别模型学习设备300的示例性操作的流程图。在图6例示的流程图中,图2中例示的流程图中所述的处理被添加有基于输入数据生成查询候选的步骤S301的处理以及在处理终止确定处确定是否添加查询候选的步骤S302的处理。
具体地,当输入设备101将输入数据109存储在输入数据存储单元102中时(步骤S100),查询候选生成设备301使用该输入数据109来生成查询候选(步骤S301)。将所生成的查询候选存储在查询候选存储单元104中。
当在步骤S105确定未输入领域知识时(步骤S105为否),查询候选生成设备301确定是否添加查询候选(步骤S302)。例如,查询候选生成设备301可以响应于用户的指令等等来确定是否添加查询候选,或可以基于是否已经生成预定数量的查询来确定是否添加查询候选。
当确定添加查询候选时(步骤S302为是),查询候选生成设备301重复生成查询候选的步骤S301的处理。另一方面,确定不添加查询候选(步骤S302为否),模型输出设备108确定完成输入领域知识,输出判别模型111(步骤S107),并终止该处理。
如上所述,根据本示例性实施例,通过查询候选生成设备生成适当的查询候选。由此,可以或可以不执行在图6中例示的步骤S104的处理(或将所学习的判别模型存储在查询候选存储单元104中的处理)。
如上所述,根据本示例性实施例,查询候选生成设备301生成减少由输入人员给予领域知识的查询候选或从多个查询删除具有明显低的判别准确度的查询的查询候选。具体地,查询候选生成设备301从指示输入数据的特征提取预定数量的特征,以及从所提取的特征生成查询候选。替选地,查询候选生成设备301计算查询候选的判别准确度,以及从查询候选删除所计算的判别准确度明显低的查询。
由此,除第一示例性实施例和第二示例性实施例的效果外,还存在即使当不存在适当的查询候选时,也能抑制用于获得领域知识的成本增加或需要输入许多领域知识。
[第四示例性实施例]
下面将描述根据本发明的第四示例性实施例的判别模型学习设备。在本示例性实施例中,优化被给有领域知识(或由用户输入的查询)的查询候选使得用户能有效地输入领域知识。
图7是示出根据本发明的第四示例性实施例的判别模型学习设备的示例性结构的框图。根据本示例性实施例的判别模型学习设备400不同于第一示例性实施例之处在于包括优化查询生成设备401。用与图1相同的数字表示与第一示例性实施例相同的构成,并省略其说明。
在第一至第三示例性实施例中,领域知识输入设备105以任意方法从查询候选存储单元104选择待添加有领域知识的查询候选。然而,为了更有效地输入领域知识,最适当的查询需要从存储在查询候选存储单元104中的查询候选通过某个标准来选择。
由此,优化查询生成设备401从查询候选存储单元104选择和输出具有由查询学习的判别模型的最小不确定性的查询集。
图8是示出优化查询生成设备401的示例性结构的框图。优化查询生成设备401包括查询候选提取处理单元411、不确定性计算处理单元412、以及优化查询确定处理单元413。
查询候选提取处理单元411通过任意方法提取存储在查询候选存储单元104中并且未被给予领域知识的一个或多个查询候选。例如,当将添加有领域知识的一个模型输出为查询候选时,查询候选提取处理单元411可以逐个地提取在查询候选存储单元104中存储的候选。
例如,当将添加有领域知识的两个或更多个模型输出为查询候选时,查询候选提取处理单元411可以与逐个输出类似地依次提取所有组合候选。查询候选提取处理单元411可以通过使用任何搜索算法来提取组合候选。下面将对应于所提取的查询候选的模型假定为f′1至f′K。K指示所提取的查询候选的数量。
当将领域知识给予f′1至f′K时,不确定性计算处理单元412计算模型的不确定性。不确定性计算处理单元412能将指示模型的估计有多不确定的任何指标用作模型的不确定性。例如,NPLT4中的第三章“QueryStrategy Frameworks”中描述了各种指标,诸如“最低置信度”、“边缘采样测量”、“熵”、“投票熵”、“平均Kulback-Leiber散度”、“预期模型变化”、“预期误差”、“模型方差”和“Fisher信息分值”。不确定性计算处理单元412可以将指标用作不确定性指标。不确定性指标不限于在NPLT4中所述的指标。
NPLT4中所述的不确定性评价方法评价用于学习判别模型所需的数据给予模型的估计的不确定性。另一方面,本示例性实施例本质上不同于其他示例性实施例之处在于通过查询模型本身的优点和获得领域知识来评价查询候选给予模型的估计的不确定性。
优化查询确定处理单元413选择具有最高不确定性的查询候选或具有高确定性的候选集(或两个或更多个查询候选)。然后,优化查询确定处理单元413将所选择的查询候选输入到领域知识输入设备105中。
由根据程序(判别模型学习程序)操作的计算机中的CPU实现优化查询生成设备401(更具体地说,查询候选提取处理单元411、不确定性计算处理单元412和优化查询确定处理单元413)。优化查询生成设备401(更具体地说,查询候选提取处理单元411、不确定性计算处理单元412和优化查询确定处理单元413)可以实现在专用的硬件中。下面将描述根据第四示例性实施例的判别模型学习设备400的操作。图9是示出根据本示例性实施例的判别模型学习设备400的示例性操作的流程图。在图9中例示的流程图中,将图2中例示的流程图中所述的处理添加有生成用于模型候选的查询的步骤S401的处理。
具体地,当在步骤S105中确定将输入领域知识时(步骤S105为是),优化查询生成设备401生成用于模型候选的查询(步骤S401)。即,优化查询生成设备401生成用户等等向其给予领域知识的查询候选。
图10是示出优化查询生成设备401的示例性操作的流程图。查询候选提取处理单元411分别输入存储在输入数据存储单元102、查询候选存储单元104和领域知识存储单元106中的数据(步骤S411),并提取查询候选(步骤S412)。
不确定性计算处理单元412计算指示每一提取的查询候选的不确定性的指标(步骤S413)。优化查询确定处理单元413选择具有最高不确定性的查询候选或查询候选集(例如两个或更多个查询候选)(步骤S414)。
优化查询确定处理单元413确定是否进一步添加查询候选(步骤S415)。当确定添加查询候选时(步骤S415为是),重复步骤S412和后续步骤中的处理。另一方面,当确定不添加查询候选时(步骤S415为否),优化查询确定处理单元413将被选候选一起输出到领域知识输入设备105(步骤S416)。
如上所述,根据本示例性实施例,当向其给予领域知识时,优化查询生成设备401从查询候选提取具有学习判别模型的低不确定性的查询。换句话说,当向查询给予领域知识时,优化查询生成设备401从查询候选提取具有通过使用被给有领域知识的查询估计的判别模型的低不确定性的查询。
具体地,优化查询生成设备401从查询候选提取具有学习判别模型的最高不确定性的查询,或以不确定性降序的预定数量的查询。这是因为向具有高不确定性的查询给予领域知识使得待学习的判别模型的不确定性小。
由此,当生成反映领域知识的判别模型时,能生成待被给有领域知识的最佳查询。由此,用这种方式提取最佳查询使得领域知识输入设备105能对优化查询生成设备401提取的查询,从用户接收领域知识的输入。因此,向具有高不确定性的查询候选给予领域知识使得能增强基于领域知识来估计正则化项的准确度,最终能增强判别学习的准确度。
根据第二示例性实施例的判别模型学习设备200和根据第四示例性实施例的判别模型学习设备400可以包括在根据第三示例性实施例的判别模型学习设备300中提供的查询候选生成设备301以便从输入数据109生成查询候选。根据第四示例性实施例的判别模型学习设备400可以包括根据第二示例性实施例的模型偏好学习设备201。在这种情况下,判别模型学习设备400能生成模型偏好,由此同样在第四示例性实施例中也能通过使用模型偏好流计算正则化函数。
下面将描述本发明的概要。图11是示出根据本发明的判别模型学习设备的概要的框图。根据本发明的判别模型学习设备(例如判别模型学习设备100)包括查询候选存储装置81(例如查询候选存储单元104),用于存储为被给有指示用户意图的领域知识的模型的查询的候选;正则化函数生成装置82(例如知识正则化生成处理单元107),用于基于被给予查询候选的领域知识,生成指示与领域知识兼容(拟合)的正则化函数(例如正则化函数KR);以及模型学习装置83(例如模型学习设备103),用于通过优化由损失函数(例如损失函数L(xN,yN,f))定义的函数(例如在公式3中表达的优化问题)和为每一判别模型预定义的正则化函数,来学习判别模型。
通过该结构,在能保持与数据的拟合的同时,能有效地学习反映指示用于模型的用户知识或分析意图的领域知识的判别模型。
判别模型学习设备(例如,判别模型学习设备200)可以包括模型偏好学习装置(例如模型偏好学习设备201),用于基于领域知识来作为指示领域知识的函数学习模型偏好。正则化函数生成装置82可以通过使用模型偏好来生成正则化函数。
通过该结构,即使当输入更少领域知识时,也能适当地生成正则化函数。
判别模型学习设备(例如判别模型学习设备300)可以包括查询候选生成装置(例如,查询候选生成设备301),用于生成减少由用户给予领域知识的查询候选或从多个查询删除具有明显低的判别准确度的查询的查询候选。
通过该结构,即使当不存在适当的查询候选时,也能防止用于获得领域知识的成本增加以及需要输入很多领域知识。
判别模型学习设备(例如,判别模型学习设备400)可以包括优化查询生成装置(例如,优化查询生成设备401),用于从查询候选提取具有当向其给予领域知识时学习的判别模型的低不确定性的查询。
通过该结构,向具有高不确定性的查询候选给予领域知识,使得能增强基于领域知识来估计正则化项的准确度,因此能提高判别学习的准确度。
判别模型学习设备可以包括领域知识输入装置(例如领域知识输入设备105),用于输入待由用户给予由优化查询生成装置提取的查询的领域知识。由此,正则化函数生成装置82可以基于由用户给予查询的领域知识来生成正则化函数。
尽管参考示例性实施例和示例描述了本发明,但本发明绝不限于示例性实施例和示例。在本领域的普通技术人员能理解的本发明的范围内,可以对本发明的结构和细节进行各种改变。
本申请要求于2012年2月8日提交的U.S.临时专利申请No.61/596313的优先权,其全部内容在此引入以供参考。
工业适用性
本发明适合于应用于学习判别数据的判别模型的判别模型学习设备。
参考符号列表
100,200,300,400 判别模型学习设备
101 输入设备
102 输入数据存储单元
103 模型学习设备
104 查询候选存储单元
105 领域知识输入设备
106 领域知识存储单元
107,202 知识正则化生成处理单元
108 模型输出设备
201 模型偏好学习设备
301 查询候选生成设备
401 优化查询生成设备
411 查询候选提取处理单元
412 不确定性计算处理单元
413 优化查询确定处理单元

Claims (9)

1.一种判别模型学习设备,包括:
查询候选存储装置,用于存储查询的候选,所述查询是被给有指示用户的意图的领域知识的模型;
正则化函数生成装置,用于基于被给予查询候选的领域知识来生成指示与所述领域知识的兼容性的正则化函数;以及
模型学习装置,用于通过优化由损失函数定义的函数和为每一判别模型预定义的所述正则化函数来学习判别模型,
其中,所述领域知识指示模型候选是否适合于所述判别模型,或者指示模型候选中的哪一个模型更适合,并且
其中,所述正则化函数被定义为具有当所述查询更类似于适当的模式时的值的函数。
2.根据权利要求1所述的判别模型学习设备,包括模型偏好学习装置,用于基于领域知识,作为指示所述领域知识的函数来学习模型偏好,
其中,所述正则化函数生成装置使用所述模型偏好来生成正则化函数。
3.根据权利要求1或2所述的判别模型学习设备,包括查询候选生成装置,用于生成减少由用户给予领域知识的查询候选或从多个查询删除具有明显低的判别准确度的查询的查询候选。
4.根据权利要求1所述的判别模型学习设备,包括优化查询生成装置,用于从查询候选提取具有当给予领域知识时学习的判别模型的低不确定性的查询。
5.根据权利要求4所述的判别模型学习设备,包括领域知识输入装置,用于输入由用户给予由所述优化查询生成装置提取的查询的领域知识,
其中,所述正则化函数生成装置基于由用户给予查询的领域知识来生成正则化函数。
6.一种判别模型学习方法,包括步骤:
基于被给予查询的候选的领域知识来生成指示与指示用户的意图的领域知识的兼容性的正则化函数,所述查询是被给有所述领域知识的模型,以及
通过优化由损失函数定义的函数和为每一判别模型预定义的所述正则化函数来学习判别模型,
其中,所述领域知识指示模型候选是否适合于所述判别模型,或者指示模型候选中的哪一个模型更适合,并且
其中,所述正则化函数被定义为具有当所述查询更类似于适当的模式时的值的函数。
7.根据权利要求6所述的判别模型学习方法,包括步骤:
基于领域知识,作为指示所述领域知识的函数来学习模型偏好;以及
通过使用所述模型偏好来生成正则化函数。
8.一种判别模型学习装置,包括:
用于基于被给予查询的候选的领域知识来生成指示与指示用户的意图的领域知识的兼容性的正则化函数的部件,所述查询是被给有所述领域知识的模型;以及
用于通过优化由损失函数定义的函数和为每一判别模型预定义的所述正则化函数来学习判别模型的部件,
其中,所述领域知识指示模型候选是否适合于所述判别模型,或者指示模型候选中的哪一个模型更适合,并且
其中,所述正则化函数被定义为具有当所述查询更类似于适当的模式时的值的函数。
9.根据权利要求8所述的判别模型学习装置,进一步包括:
用于基于领域知识,作为指示所述领域知识的函数来学习模型偏好的部件;以及
用于通过使用所述模型偏好来生成正则化函数的部件。
CN201280004786.3A 2012-02-08 2012-12-11 判别模型学习设备、方法和程序 Active CN103443809B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261596313P 2012-02-08 2012-02-08
US61/596,313 2012-02-08
PCT/JP2012/007899 WO2013118224A1 (ja) 2012-02-08 2012-12-11 判別モデル学習装置、判別モデル学習方法および判別モデル学習プログラム

Publications (2)

Publication Number Publication Date
CN103443809A CN103443809A (zh) 2013-12-11
CN103443809B true CN103443809B (zh) 2016-09-28

Family

ID=48903794

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280004786.3A Active CN103443809B (zh) 2012-02-08 2012-12-11 判别模型学习设备、方法和程序

Country Status (4)

Country Link
US (1) US8832006B2 (zh)
JP (1) JP5327415B1 (zh)
CN (1) CN103443809B (zh)
WO (1) WO2013118224A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130204811A1 (en) * 2012-02-08 2013-08-08 Nec Corporation Optimized query generating device and method, and discriminant model learning method
DE102013206292A1 (de) * 2013-04-10 2014-10-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen eines datenbasierten Funktionsmodells
CA2952576C (en) * 2014-06-20 2022-07-26 Miovision Technologies Incorporated Machine learning platform for performing large scale data analytics
JP6486731B2 (ja) * 2015-03-13 2019-03-20 株式会社東芝 機器特性モデル学習装置、機器特性モデル学習方法、及びプログラム
JP6465440B2 (ja) * 2016-02-26 2019-02-06 日本電信電話株式会社 解析装置、方法、及びプログラム
JP6614030B2 (ja) * 2016-05-20 2019-12-04 日本電信電話株式会社 観測者検出装置、方法、プログラム、及びコンピュータ読み取り可能な記録媒体
US10453444B2 (en) * 2017-07-27 2019-10-22 Microsoft Technology Licensing, Llc Intent and slot detection for digital assistants
CN109447324A (zh) * 2018-09-30 2019-03-08 深圳个人数据管理服务有限公司 行为活动预测方法、装置、设备及情绪预测方法
JP7116711B2 (ja) * 2019-06-14 2022-08-10 株式会社東芝 情報処理装置、情報処理方法及びコンピュータプログラム
CN110472067B (zh) * 2019-08-19 2024-05-07 腾讯科技(深圳)有限公司 知识图谱表示学习方法、装置、计算机设备及存储介质
US11620435B2 (en) 2019-10-10 2023-04-04 International Business Machines Corporation Domain specific model compression
KR20220019894A (ko) 2020-08-10 2022-02-18 삼성전자주식회사 반도체 공정의 시뮬레이션 방법 및 반도체 장치의 제조 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334719A (ja) * 2006-06-16 2007-12-27 Hitachi Software Eng Co Ltd 遺伝子発現解析の欠損値補完システム
CN101390118A (zh) * 2005-12-30 2009-03-18 谷歌公司 预测广告质量

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7627551B2 (en) * 2007-01-23 2009-12-01 Gm Global Technology Operations, Inc. Retrieving case-based reasoning information from archive records
WO2008114863A1 (ja) 2007-03-22 2008-09-25 Nec Corporation 診断装置
SG148891A1 (en) * 2007-06-21 2009-01-29 Novartis Ag Engineering expert system
US20100241639A1 (en) * 2009-03-20 2010-09-23 Yahoo! Inc. Apparatus and methods for concept-centric information extraction
WO2011033744A1 (ja) 2009-09-15 2011-03-24 日本電気株式会社 画像処理装置、画像処理方法および画像処理用プログラム
JP5533272B2 (ja) 2010-05-28 2014-06-25 日本電気株式会社 データ出力装置、データ出力方法およびデータ出力プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101390118A (zh) * 2005-12-30 2009-03-18 谷歌公司 预测广告质量
JP2007334719A (ja) * 2006-06-16 2007-12-27 Hitachi Software Eng Co Ltd 遺伝子発現解析の欠損値補完システム

Also Published As

Publication number Publication date
WO2013118224A1 (ja) 2013-08-15
JP5327415B1 (ja) 2013-10-30
JPWO2013118224A1 (ja) 2015-05-11
US20130204810A1 (en) 2013-08-08
CN103443809A (zh) 2013-12-11
US8832006B2 (en) 2014-09-09

Similar Documents

Publication Publication Date Title
CN103443809B (zh) 判别模型学习设备、方法和程序
Chai et al. A deep probabilistic transfer learning framework for soft sensor modeling with missing data
Wenninger et al. Explainable long-term building energy consumption prediction using QLattice
Lin et al. Parameter tuning, feature selection and weight assignment of features for case-based reasoning by artificial immune system
JP6052187B2 (ja) 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法
Yao et al. Refining data-driven soft sensor modeling framework with variable time reconstruction
Zhang et al. Variable selection in logistic regression model with genetic algorithm
Bhatt et al. A survey & current research challenges in meta learning approaches based on dataset characteristics
Yan et al. Case-based reasoning classifier based on learning pseudo metric retrieval
Ciancio et al. Heuristic techniques to optimize neural network architecture in manufacturing applications
You et al. A variable relevant multi-local PCA modeling scheme to monitor a nonlinear chemical process
Kocaguneli et al. Building a second opinion: learning cross-company data
Abdul-Jabbar Data Analytics and Techniques
Cao et al. No-delay multimodal process monitoring using Kullback-Leibler divergence-based statistics in probabilistic mixture models
Haixiang et al. Optimizing reservoir features in oil exploration management based on fusion of soft computing
Moldovan et al. Time series features extraction versus lstm for manufacturing processes performance prediction
Basheer et al. Predictive analytics of university student intake using supervised methods
Zhang et al. DuAK: Reinforcement Learning-Based Knowledge Graph Reasoning for Steel Surface Defect Detection
Elsemüller et al. Sensitivity-aware amortized Bayesian inference
Liu et al. A learning-based system for predicting sport injuries
Dhrif et al. Gene subset selection for transfer learning using bilevel particle swarm optimization
Sayli et al. Sampling Techniques and Application in Machine Learning in order to Analyse Crime Dataset
Alkhatib Exploring Machine Learning Hypothesis Testing
Tajziyehchi A Machine Learning-Based Approach for Predictive Analysis of Cost Growth in Heavy Industrial Construction Projects
Garg Comparing Machine Learning Algorithms and Feature Selection Techniques to Predict Undesired Behavior in Business Processesand Study of Auto ML Frameworks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant