CN110462607B - 从梯度增强机识别原因代码 - Google Patents

从梯度增强机识别原因代码 Download PDF

Info

Publication number
CN110462607B
CN110462607B CN201880021609.3A CN201880021609A CN110462607B CN 110462607 B CN110462607 B CN 110462607B CN 201880021609 A CN201880021609 A CN 201880021609A CN 110462607 B CN110462607 B CN 110462607B
Authority
CN
China
Prior art keywords
feature
value
classification
values
entities
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880021609.3A
Other languages
English (en)
Other versions
CN110462607A (zh
Inventor
O·奥蒂百特
C·巴塞纳斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visa International Service Association
Original Assignee
Visa International Service Association
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visa International Service Association filed Critical Visa International Service Association
Publication of CN110462607A publication Critical patent/CN110462607A/zh
Application granted granted Critical
Publication of CN110462607B publication Critical patent/CN110462607B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Prostheses (AREA)

Abstract

分类服务器执行用于分类实体并识别分类的原因代码的方法。分类服务器可以使用梯度增强机以通过使用训练数据来构建分类模型。分类模型可以是决策树的组合,其中,决策树中每个终端节点与响应相关联。分类服务器可以聚合每个决策树的响应,以确定新实体的分类。分类服务器可基于预期特征值确定特征贡献值。这些特征贡献值可与分类模型中的每个响应相关联。这些特征贡献值可用于确定实体分类的原因代码。这样,分类服务器可以执行分类模型的单次遍历以分类实体并识别原因代码。

Description

从梯度增强机识别原因代码
相关申请交叉引用
本申请是要求2017年4月7日提交的名称为“IDENTIFYING REASON CODES FROMGRADIENT BOOSTING MACHINES(从梯度增强机识别原因代码)”第15/482,489号美国专利申请的申请日的权益的国际专利申请,所述美国专利申请以全文引用的方式并入本文中以用于所有目的。
背景技术
梯度增强机可用于使用先前经过分类的实体集合构建实体分类模型。为了对新实体进行分类,可以确定实体特征的值,并且这些特征值可用于遍历分类模型。与某些其他构建分类模型的技术相比较,梯度增强机可以构建为较小模型(例如决策树)的组合的分类模型。每个较小模型都可以输出取决于新实体的一个或多个不同特征的响应评分。虽然每个较小模型本身在对新实体分类时可能不准确,但分类模型可以通过聚合并加权数百或数千个较小模型来提供准确性。
尽管梯度增强机可以构建准确的分类模型,但识别哪些特征对分类结果有最大影响可能很困难或不实际。难以确定分类原因的一个原因是分类模型的组成,分类模型可包括数百个或数千个较小模型,其中每个较小模型都可以取决于多于一个特征,并且较小模型中多于一个模型可以取决于相同的特征。相应地,需要改进流程来从梯度增强机确定原因代码。
发明内容
分类服务器执行用于分类实体并识别分类的原因代码的方法。分类服务器可以使用梯度增强机以通过使用训练数据来构建分类模型。分类模型可以是决策树的组合,其中,决策树中每个终端节点与响应相关联。分类服务器可以聚合每个决策树的响应,以确定新实体的分类。此外,分类服务器可基于预期特征值确定特征贡献值。这些特征贡献值可与分类模型中的每个响应相关联。这些特征贡献值可用于确定实体分类的原因代码。这样,分类服务器可以执行分类模型的单次遍历以分类实体并识别原因代码。
其它实施例涉及与本文中描述的方法关联的系统、便携式消费者装置和计算机可读介质。
参照下面的详细描述和附图可以获得对本发明的实施例的特性和优点的更好理解。
附图说明
图1是根据一些实施例的用于分类实体的分类系统的框图。
图2是根据一些实施例的用于构建分类模型并对实体分类的过程流程图。
图3是根据一些实施例的响应评分和分类过程的图。
图4是根据一些实施例的具有与特征贡献值相关联的终端节点的决策树的图。
图5是根据一些实施例的用于分类和确定原因代码的方法的流程图500。
术语
“计算机”或“计算机服务器”可以指单个计算机或在系统中通信的计算机集群。举例来说,计算机可以是大型主机、小型计算机聚类或像单元一样工作的一组服务器。在一个实例中,计算机可以是数据库服务器。计算机可以包括用于处理来自用户界面或来自一个或多个客户端计算机的请求的任何硬件、软件、其他逻辑部件或前述项的组合。计算机可包括一个或多个计算设备,且可使用各种计算结构、布置和编译中的任一种来服务于来自一个或多个客户端计算机的请求。
“机器学习”通常指各种不同的计算机实施的过程,其基于输入数据的群体,通过确定群体内的实体的特征和实体之间的关系来构建模型。为了构建模型,机器学习过程可以测量群体中每个实体的各种特征,并且可以比较不同实体的特征以确定分段。例如,可以根据实体的特征以及实体之间的关系,使用机器学习过程将实体聚类在一起。“监督机器学习”通常是指接收具有预定解决方案的训练数据(例如,被标记或被分类的数据)的机器学习过程。监督机器学习过程可以使用群体数据集和训练数据中的每个对象的相关标签,并生成一组逻辑以确定标签未标记的数据。例如,监督机器学习过程可以使用相应标记的字母和数字的图像构建字符识别模型。
术语“分类器”通常是指实体的描述。分类器可以由人确定。例如,个人可以报告特定交易是“欺诈性”或“非欺诈性”的。在另一示例中,可以基于图像中显示的对象使用以下标签标记图像,这些标签有:“建筑”、“人”、“汽车”、“卡车”、“狗”等。一个或多个标签可以应用于每个实体。具有相同标签的实体可以具有一个或多个具有类似值的特征。
术语“特征”一般是指由机器学习过程确定的实体的不同特征或属性的一组测量。因此,实体的特征是该实体的表征,使得取决于机器学习过程的准确性,类似实体将具有类似的特征。例如,交易的“特征”可以包括交易的时间,交易中涉及的各方,交易的金额。此外,交易的特征可能更复杂,包括指示第一方执行的交易模式或在与第一方交易中所涉及的其他人的模式的特征。在另一示例中,图像的“特征”可以基于其像素的颜色和亮度以及图像中不同颜色的分布来确定。由复杂机器学习算法确定的特征可能是人类无法理解的。也就是说,个别特征值可以表示某个特性,但这是复杂算法的结果,而不是能够由人轻易执行的简单测量。特征可以作为整数值的阵列存储。例如,两个不同实体的特征可以由以下阵列表示:第一实体为[0.2,0.3,0.1,...],第二实体为[0.3,0.4,0.1,...]。
术语“原因代码”是指代码、短语或识别实体的哪些特征是该实体分类的原因的叙述。例如,分类系统可以对特定交易分配“欺诈性”分类器,该分类的原因代码可以将“交易金额”和“地址验证”特征识别为该分类的原因。原因代码还可以包括更详细的信息,例如导致分类的各个相应特征的条件。例如,由于交易金额大于指定阈值且地址未被验证,因此原因代码可以指示交易被分类为“欺诈性”的。
具体实施方式
梯度增强机可用于使用先前经过分类的实体的训练集构建实体分类模型。通过梯度增强机构建的分类模型可以是数百个或数千个较小子模型(例如决策树)的组合。分类模型是复杂的,因为组合中的较小子模型中的每个子模型都可以取决于一个或多个不同的实体特征,而且超过一个较小模型可以取决于相同的特征。因为此原因,识别新分类实体的哪些特征对分类结果的影响最大可能很困难或不实际。
虽然通过梯度增强机构建的分类模型比更简单的分类模型更准确,但他们的复杂性增加,使得确定原因代码是不实际的,所述原因代码识别哪些特征曾是分类的原因。一种解决方案是建立单独的更简单的不是基于梯度增强机的模型,以生成原因代码。在接收新实体数据时,可以运行两个模型-复杂分类模型(使用梯度增强机构建)和更简单的原因代码模型。但是,由于两个单独的模型之间的差异,这种解决方案可能不准确。另一种解决方案是迭代地调节输入实体数据的特征并重新运行分类模型,以便确定调节如何改变响应。但是,为了处理分类模型几次,此解决方案需要大量计算机资源和时间。
下文更详细描述的改进的解决方案可以准确地识别分类的原因代码,同时通过将分类和原因代码确定组合在一个模型中只处理分类模型一次。为了创建组合模型,对于在组合模型内的每个子模型的每个响应,确定每个特征的贡献。这些特征贡献可以被排序并用于识别一个或多个原因代码。这样,组合模型解决方案提供准确的原因代码,原因是特征贡献与分类模型相关,同时提供实时分类,因为只需要运行模型一次。
可以在“离线”阶段内在两个步骤(例如,在模型处于运行使用以进行实体分类之前)中构建组合模型。在第一步中,梯度增强机学习过程可以使用训练数据集构建分类模型。在第二步中,基于训练数据集内实体的平均特征,确定分类模型的每个响应的估计特征贡献。由于使用平均特征估计特征贡献,所以此过程只需执行一次,且可以离线执行。即,不需要针对由模型分类的每个新实体重新确定特征贡献。这样,当分类模型在“在线”阶段使用时(例如,当模式处于运行使用以进行实体分类时),它可以在模型的单次遍历中识别分类器和原因代码。
通过在组合模型处于运行使用之前估计特征贡献,一些复杂的计算资源密集型计算可以在离线阶段而不是在线阶段执行。此外,针对特定分类模型,仅需要执行一次特征贡献确定过程。这样,与其他解决方案相比,使用组合模型,用于分类实体以及识别相应原因代码的时间和计算资源的数量减少。下文参考图1-5更详细地描述改进的组合模型。
I.分类系统图
图1是根据一些实施例的用于对实体进行分类的分类系统100的框图。分类系统100包括分类服务器110,其可使用分类模型对实体进行分类。分类服务器110可以通过使用该实体的实体数据遍历分类模型来对实体进行分类。分类服务器110可以使用训练数据集和分类数据在离线阶段建立分类模型,所述训练数据集包括多个实体的实体数据,所述分类数据指示与多个实体中每个实体相关联的一个或多个分类器。可以从数据库服务器120接收训练数据,或者训练数据可以由分类服务器110存储。分类服务器110构建的分类模型可以是可用于确定分类器和原因代码的组合模型。
在离线建立分类模型后,分类服务器110可以使用该模型来确定在线阶段中训练数据中未包括的新实体的分类评分。例如,分类服务器110可以在请求计算机130请求时对新实体进行分类。请求计算机130可以将包括实体数据的分类请求消息发送到分类服务器110。分类服务器110可以从请求计算机130接收实体数据。从请求计算机130接收的实体数据可以指示实体的每个特征的值,或者分类服务器110可以基于实体数据确定实体的特征值。分类服务器110可以使用特征值遍历分类模型,以确定实体的一个或多个分类器。分类器可以是指示某些分类的数值评分,或者可以是分类标签。
分类服务器110还可以确定每个实体的特征的特征贡献值。分类服务器110可以对特征贡献值进行排序,然后识别对应于一个或多个分类器中的每个分类器的一个或多个原因代码。原因代码可以指示哪些特征曾是由特定分类器分类的实体的最大原因。分类服务器110可以在分类响应消息中向请求计算机130发送分类器和原因代码。
请求计算机130可以基于实体的分类执行不同的操作。例如,如果交易实体被分类为欺诈性的,则请求计算机130可以拒绝访问资源。在另一个示例中,请求计算机130可以使用经过分类的图像实体进行对象和字符识别。
II.分类模型生成和操作
分类服务器可以使用一个分类模型来确定实体的分类器,使用一个分类模型来确定分类的原因代码。图2是根据一些实施例用于构建分类模型并对实体分类的过程流程图200。在离线阶段211,分类服务器可以构建分类模型220并确定特征贡献230。在离线阶段211后,分类服务器可以在在线阶段212运行,在线阶段可以对新实体进行分类。图2中所示的过程可由分类服务器(例如图1的分类服务器110)执行。
在离线阶段211中,分类服务器可以获得训练数据210。例如,分类服务器可以从数据库服务器接收训练数据210。训练数据210可以包括多个实体的实体数据。训练数据210中包括的实体可以是选自实体群体的代表性样本。训练数据210中的实体数据可以包括描述每个实体的特征或特性的信息。每个实体可以具有一个或多个特征,训练数据210可以包括实体每个特征的特征值。
在某些情况下,分类服务器可能需要执行特征提取过程,以便从实体数据确定特征值。特征提取过程可以是机器学习算法,其确定实体的特征值,使得类似实体具有类似的特征值。在一个示例中,交易实体的特征可以基于交易参与双方之间的关系或对比由同一方进行的不同交易的时间和地点来确定。在另一示例中,图像实体的“特征”可以基于其像素的颜色和亮度以及图像中不同颜色的分布来确定。
训练数据210还可以包括将一个或多个分类器与每个实体相关联的分类信息。例如,可能先前使用一个或多个分类标签或分类评分对训练数据210中的实体进行了分类。例如,如果训练数据210中的实体为交易,则分类信息可以将每个实体与分类标签或评分相关联,所述分类标签或评分指示该交易是否是“欺诈性”或“非欺诈性”的。在另一个示例中,如果训练数据210中的实体为图像,则分类信息可以将每个实体与一个或多个分类标签或评分相关联,所述分类标签或评分指示图像中描绘的对象,例如“建筑”、“人”、“车辆”、“字母数字字符”等。这样,分类信息可以将一个或多个分类器与训练数据210中包含的多个实体中的每个实体相关联。
在201处,分类服务器可以基于包括每个实体的特征值的训练数据210和将每个实体与一个或多个分类器相关联的分类信息构建分类模型220。分类服务器可以使用梯度增强机构建分类模型220,梯度增强机是一种机器学习过程,其可用于构建包括子模型的组合的分类模型。例如,每个子模型都可以是决策树。在分类模型220中,每个较小子模型都可以输出取决于实体的一个或多个不同特征的响应评分。每个子模型的响应都可以加权并组合在一起,以准确地对实体进行分类。在下文参照图3和图4更详细地描述分类模型220。
在202处,在已建立分类模型220之后,分类服务器可以确定分类模型220的每个特征的特征贡献值230。特征贡献值230指示每个特征的值对分类结果的影响有多大。这些特征贡献值230可以被排序,以便确定哪些特征对分类贡献最大,并且可基于排名来识别原因代码。
分类服务器可以在离线阶段211通过对训练数据210中每个实体的特征值求平均确定每个特征的预期特征值来确定特征贡献值230。这些平均特征值可用于确定与分类模型220的每个响应相关联的特征贡献值230。通过确定预期特征值,特征贡献值230可在离线阶段211预先确定,从而使分类服务器能够在在线阶段221中仅使用分类模型220的单次遍历基于特征贡献值230实时地识别原因代码。下面参考图4更详细地描述特征贡献值的确定。
在已经构建分类模型220且已确定特征贡献值后,分类服务器可以在在线阶段212运行,其中,分类服务器对新实体(不在训练数据210中)进行分类,并识别新实体的每个分类器的一个或多个原因代码。例如,分类服务器可以从请求计算机(例如,图1的请求计算机130)接收新实体的新实体数据240。
在203处,分类服务器可以使用新实体数据240的特征值遍历分类模型220的每个子模型。在某些情况下,分类服务器可以使用特征提取过程确定新实体的特征值。在其他情况下,特征值可能以前被确定并包括在新实体数据240中。
分类模型的遍历会产生响应值和每个子模型的一个或多个相关联的特征贡献值。可以聚合响应值,以确定新实体的一个或多个分类器250。下面参考图3更详细地描述分类过程。与每个响应值相关联的特征贡献值可以被聚合和排序,以便识别分类的原因代码260。下面参考图4更详细地描述原因代码识别过程。
分类模型220是有利的,因为它将分类与特征贡献结合起来,以便在分类时可以识别原因代码,其中,多次遍历不同的响应代码模型或相同的分类模型。如上所述,预期特征贡献值230在离线阶段211确定,这样不需要在在线阶段212中重新计算被分类的每个新实体的预期特征贡献值。因为特征贡献值230是预先确定的,在线阶段212中只需要针对每个新实体遍历单个模型。相应地,与遍历超过一个模型以确定分类器和原因代码的其他分类系统相比,用于分类和原因代码识别花费的时间和计算资源的数量会降低。
III.分类模型响应评分
如上所述,分类服务器可以构建可被遍历的分类模型,以便确定实体的分类器。图3是根据一些实施例的响应评分和分类过程的图300。响应评分过程301基于分类模型的每个子模型的响应来确定响应评分。分类过程302基于响应评分确定一个或多个分类器。
如上所述,分类服务器构建和使用的分类模型可以是决策树的组合。如图3中所示,分类模型可以包括第一决策树311、第二决策树312、第三决策树313、最后一个决策树314以及为了简洁在图3中没有示出的多个其它决策树(由省略号指示)。分类模型中多个决策树中的每个决策树都可以包含多个节点,这些节点在图3中描绘为方框。节点可以与一个或多个特征和该特定特征的特征值集合相关联。可以使用阈值确定条件的特征值集合,使得每个节点处的决策都可以基于满足该条件(“是”)或不满足该条件(“否”)来分支。下文参考图4更详细地讨论遍历决策树内的节点。
每个分类模型中的多个决策树中每个决策树可以包含多个分支,所述分支包含一个或多个条件节点和终端节点,在图3中分支被描绘在该分支内顶点连接的节点。在图3中将终端节点描绘为灰颜色的方框。由于使用梯度增强机构建决策树,每个终端节点都与响应值相关联。基于在对训练数据中的实体进行分类时决策树的准确性来加权这些响应评分。
在接收新实体数据时,该实体的特征值用于遍历树,取决于是否满足该分支的特征条件,在决策树中沿某个分支向下到特定的终端节点。每个树的响应值可以被聚合成评分。在图3所示的示例中,第一决策树311输出“响应1”的值,第二决策树312输出“响应2”的响应值,“第三决策树”313输出“响应3”的响应值,最后一个决策树314输出“响应M”的响应值,在图3中未示出的多个决策树中的每个决策树也输出响应值(由省略号表示)。这样,可以基于遍历期间命中的每个终端节点,识别每个决策树的响应值。
实体的分类器可以基于响应评分使用sigmoidal函数来确定。例如,以下分类函数(1)可用于基于响应评分计算分类评分。
e评分/(e评分+e-评分)(eScore/(eScore+e-Score)) (1)
此分类函数(1)可以如图3所示的表示。根据分类函数(1),当响应评分为负值时,分类评分可以小于0.5,当响应评分为0时,分类评分可以为0.5,当响应评分为正值时,分类评分可以大于0.5。可以使用阈值321(例如,0.5)确定某个特定实体的分类器。例如,如果分类函数(1)产生小于0.5的分类评分,实体可以与分类器“第1类”相关联。如果分类函数(1)产生大于或等于0.5的分类评分,实体可以与分类器“第2类”相关联。在一些实施例中,可以使用多于一个阈值来在两个以上的分类器中选择。
IV.原因代码识别
分类模型中决策树的终端节点可以各自与响应值相关联。此外,每个终端节点都可以与一个或多个特征贡献值相关联,所述特征贡献值可用于识别原因代码。这样,可以使用单个模型实时地识别原因代码。图4是根据一些实施例的具有与特征贡献值420相关联的终端节点的决策树410的图400。
如上所讨论,梯度增强机过程可以构建分类模型,这种模型是数百个或数千个决策树的组合。决策树410是分类模型中单个决策树的示例。当在在线阶段中对新实体进行分类时,除了分类模型的其他决策树之外,此决策树可以由分类服务器遍历。
在本示例中,可能已使用已预先分类为“欺诈性”或“非欺诈性”的交易实体的训练数据构建了决策树410。交易实体的特征可以包括已经由第三方预先确定的互联网协议(IP)信誉评分(“IP评分”)。在本示例中,更大的IP评分特征值(如,大于30)可以指示交易更可能被分类为“非欺诈性”,较低的IP评分特征值(例如,不大于30)可以指示交易更可能被分类为“欺诈性”。
交易的特征还可以包括“金额”特征值,其指示交易金额。在本示例中,较低的金额值(例如,小于95),可以指示交易更有可能被分类为“非欺诈性”,而更大的金额值(例如,不小于95)可以指示交易更可能被分类为“欺诈性”。
交易的特征还可以包括“地址验证服务匹配”特征,其指示验证服务器是否已将用于执行交易的地址与注册地址匹配。在本示例中,地址验证服务(AVS)匹配(“是”)可以指示交易更可能被分类为“非欺诈性”,而AVS不匹配(“否”)可以指示交易更有可能被分类为“欺诈性”。
如图4中所示,决策树410的每个终端节点与响应评分相关联,所述响应评分由终端节点内的值指示。响应评分基于在该终端节点的分支内具有节点特征的实体的预确定分类。在本示例中,IP评分特征值大于30、金额特征值小于95的实体将使决策树410输出0.2的响应,而IP评分特征值不大于(小于)30、金额特征值小于95的实体将使决策树输出0.5的响应。
在本示例中,AVS匹配特征值为“Yes(是)”、金额特征值不小于(大于)95的实体将使决策树输出0.4的响应,而AVS匹配特征值为“No(否)”、金额特征值不小于(大于)95的实体将使决策树输出0.7的响应值。
分类模型可以基于训练数据中被分类为这些的实体的数目,给具有更可能被分类为“欺诈性”的特征值集合的终端节点分配正响应值,给具有更可能被分类为“非欺诈性”的特征值集合的终端节点分配负值。
分类服务器可以确定每个响应值(例如,对于每个终端节点)的一个或多个特征贡献值420。分类服务器可以确定特定分支所基于的每个特征的特征贡献值。例如,响应值为0.7的最右侧分支基于金额特征和AVS匹配特征。相应地,分类服务器可以确定金额特征和AVS匹配特征的特征值。
如上所讨论,分类服务器可以基于预期特征值确定特征贡献值。特征贡献值420还可以基于树内的特定特征位置以及满足特定分支的条件的训练数据中实体的百分比。
为了确定预期特征值,分类服务器可以确定训练数据中所有实体的特征的平均值。在本示例中,分类服务器可以确定平均IP评分特征值为60,平均金额特征值为60,大多数实体的AVS匹配特征值为“是”。这些预期特征值显示在决策树410的节点中。
分类服务器可以使用预期特征值来确定要与每个终端节点相关联的特征贡献值420。特征贡献值还基于预期使用预期特征值满足该分支的条件的实体的百分比。为了确定在第一终端节点处特定特征的预期特征贡献值,分类服务器可以识别与该特征对应的决策树中的节点。然后,分类服务器可以使用该特征的预期特征值来选择该节点的分支中的一个分支。然后,分类服务器可以识别在所选分支内的每个终端节点。然后,分类服务器可以基于训练集内的实体的百分比来调节所选择分支中每个终端节点的响应值,所述实体既满足在对应于特征的决策树中的节点的条件(例如,会跟随使用预期特征值选择的节点的分支的实体),又命中该特定终端节点。例如,如果会跟随所选分支的20%的实体将在特定终端节点处结束,则该终端节点的响应值可以乘以20%。所选分支内的每个终端节点的经调节的响应值可以相加,并且可以从第一终端节点本身的响应值中减去所选择分支(经调节的)内的终端节点的求和。
第一终端节点的响应值与由预期特征值选择的分支内的终端节点的经调节的响应值的求和之间的差值是该特定特征的预期特征贡献值。这样,特征的预期特征贡献值指示第一终端节点的特征值与预期特征值之间的偏差量,从而指示该特征对响应值的贡献值的量。
例如,为了确定响应值为0.7的终端节点中的AVS匹配特征的特征贡献值,分类服务器可以确定当前响应与预期响应之间的差异。如上所述,预期的AVS匹配特征值为“是”。但是,当AVS匹配特征值为“否”时,响应为0.7的终端节点被命中。由于AVS匹配特征值与预期值不同,AVS匹配特征是响应评分高的原因(例如,为0.7)。因此,此终端节点的AVS匹配特征的特征贡献值将大于0。
为了计算AVS匹配特征贡献值,分类服务器可以基于AVS匹配的预期特征值(例如,0%)使用终端节点的响应值(例如,0.7)、AVS匹配的预期特征值(如,“是”)以及会命中该终端节点的训练数据中实体的百分比(例如,满足分支的条件)。由于AVS匹配的预期特征值为“是”,因此预期实体不会命中响应为0.7的终端节点。因此,0%的预期实体会命中响应为0.7的终端节点,100%的预期实体会命中响应为0.4的终端节点,其中AVS匹配的特征值为0.1。100%的预期实体命中AVS匹配“是”终端节点(响应值0.1),因为预期的AVS匹配特征值为“是”,且AVS匹配条件是该分支内的最后一个条件。
可以通过将每个相对的响应评分乘以预期命中响应评分的实体百分比,并从该终端节点的响应评分减去这两个值来确定响应值为0.7的终端节点的AVS匹配的特征贡献值。分类服务器可以使用预期(例如,平均)特征值(IP评分为60,金额为60,并且AVS匹配为“是”)确定预期命中响应评分的实体的百分比。这样,分类服务器可以识别训练数据内特征值满足分支的特征条件的实体的百分比。预期命中0.4的响应评分(AVS匹配为YES(是))的实体的百分比为100%,预期命中0.7的响应评分(AVS匹配为NO(否))的实体的百分比为0%,两者在图4中由虚线箭头示出。例如,可使用以下公式(2)计算响应值为0.7的终端节点的AVS匹配特征贡献值。
AVS匹配特征贡献=0.7-(100%*0.4+0%*0.7)=0.3 (2)
相应地,可使用以下公式(3)计算具有0.4(AVS匹配为YES(是))的终端节点的AVS匹配的特征贡献值。
AVS匹配特征贡献=0.4-(100%*0.4+0%*0.7)=0.0 (3)
对于响应为0.4的节点,AVS匹配的特征贡献值为0.0,因为AVS匹配的特征值预期为“是”,并且命中该终端节点的实体的百分比(响应为0.4)为100%。这样,预期AVS是匹配的。因此,由于AVS预期是匹配的,AVS匹配为“是”并不会对0.4的响应评分有贡献。
关于金额特征,分类服务器可以确定IP评分大于30的80%的实体的金额特征值小于95。相应地,IP评分不大于(小于)30的20%的实体的金额特征值不小于95。因此,分类服务器可以基于这些百分比确定每个终端节点的金额特征贡献值。例如,分类服务器可以使用下面的公式(4)来确定响应值为0.7的终端节点的金额特征贡献值。
金额特征贡献=0.7-(80%*0.2+20%*0.5)=0.44 (4)
相应地,不小于95的金额对0.7的响应评分有贡献。金额特征贡献很高,因为金额特征值与预期值不同(预期为60)。
此外,分类服务器可以使用下面的公式(5)确定响应值为0.4的终端节点的金额特征贡献值。
金额特征贡献=0.4-(80%*0.2+20%*0.5)=0.14 (5)
金额特征贡献是正值,表示金额特征值对0.4的响应值有贡献。
两个其他终端节点的特征贡献值也可以类似地计算。例如,可使用以下公式(6)确定响应值0.2的终端节点的IP评分特征贡献值。
IP评分特征贡献=0.2-(100%*0.2+0%*0.5)=0 (6)
可使用以下公式(7)确定响应值为0.2的终端节点的金额特征贡献值。
金额特征贡献=0.2-(80%*0.2+20%*0.5)=-0.06 (7)
对于0.2的响应,金额特征贡献值为负表示金额值对响应值带来负面贡献,相当程度地降低响应值。
可使用以下公式(8)确定响应值为0.5的终端节点的IP评分特征贡献值。
IP评分特征贡献=0.5-(100%*0.2+0%*0.5)=0.3 (8)
可使用以下公式(9)确定响应值为0.5的终端节点的金额特征贡献值。
金额特征贡献=0.5-(80%*0.2+20%*0.5)=0.24 (9)
对于0.2的响应,金额特征贡献值为负表示金额值对响应值带来负面贡献,相当程度地降低响应值。
为了确定实体分类的原因代码,分类服务器可以使用特定实体的特征值识别与在分类模型遍历期间命中的每个终端节点相关联的特征贡献值。可以对分类模型中所有决策树的每个特征的特征贡献值进行求和,可以选择某个数目的排名靠前的特征贡献值来用作原因代码。例如,只看图4中的决策树410,如果响应值为0.4的终端节点被命中,则分类评分为0.4(例如,响应值)的最高排名原因代码是“金额不小于95。”。为了确定考虑整个分类模型的原因代码,其在多个决策树中可能具有金额特征,可以在对特征贡献排名之前,对分类模型中被命中的每个终端节点的金额特征贡献值进行求和。
相应地,分类服务器可以确定分类服务器内每个决策树的响应以及可用于识别原因代码的每个响应的特征贡献值。这样,分类模型是组合型分类和原因代码的识别模型。组合型分类和原因代码识别模型可以仅使用树的单个遍历来确定分类器和分类原因代码,因为特征贡献值基于预期特征值。此组合模型提供准确的原因代码,同时减少计算时间,因为原因代码是从模型的单个遍历确定的。
V.示范性方法
图5是根据一些实施例的用于分类和确定原因代码的方法的流程图500。此方法可以由分类服务器执行。在方法的步骤501处,分类服务器可以获得多个实体的训练数据。如上所讨论,由表征某实体的多个特征表征的多个实体中的每个实体和特定实体的实体数据可以指示该实体的每个特征的特征值。此步骤可在离线阶段执行。
在方法的步骤502处,分类服务器可以获得与训练数据中的多个实体中的每个实体相关联的分类数据。在某些情况下,可以与训练数据一起包括分类数据。分类数据可以将多个不同分类器与多个实体相关联,使得多个实体中的每个实体与一个或多个分类器相关联。此步骤可在离线阶段执行。
在方法的步骤503处,分类服务器可以使用训练数据和分类数据构建分类模型。分类模型可使用梯度增强机来构建。分类模型可以包括用于选择一个或多个分类器的多个决策树。例如,分类模型可以是超过一千棵决策树的组合。每个决策树都可以包含多个分支,其中每个分支包含一个或多个条件节点和终端节点。条件节点可与特定特征(例如,“金额”)和该特定特征的一组特征值(如,“金额<95”)相关联。每个终端节点都可以与响应值相关联。此步骤可在离线阶段执行。
在方法的步骤504处,分类服务器可以确定分类模型中决策树的每个终端节点的响应值。可以使用梯度增强机过程作为创建分类模型的一部分来确定响应值。此步骤可在离线阶段执行。
在方法的步骤505处,分类服务器可以确定每个特征的预期特征值。对于多个实体中的每个实体,特定特征的预期特征值基于该特征的特征值。例如,特定特征的预期特征值可以是训练数据中所有实体的平均值。此步骤可在离线阶段执行。
在方法的步骤506处,分类服务器可以确定分类模型的决策树中每个终端节点的特征贡献值。特征贡献值可以基于该特征的预期特征值、该终端节点的响应值以及决策树中特征的定位。例如,特定特征的特征贡献值可基于差值,所述差值是基于该特定特征具有第一条件的第一分支中包括的第一终端节点的第一响应值和基于该特定特征具有第二条件的第二分支中包括的第二终端节点的第二响应值之间的差值。计算预期贡献值时使用的预期特征值的确定可以基于多个实体中的每个实体的该特征的特征值。例如,所有实体的平均特征值可用作特定特征的预期特征值。此步骤可在离线阶段执行。
如图4中所示并如上所讨论,分类服务器可以基于与特定终端节点相关联的响应值以及与包括特定终端节点的分支的条件节点相关联的每个特征的预期值来确定特征贡献值。与该特定终端节点相关联的特征贡献值可以包括与包括特定终端节点的分支的条件节点相关联的每个特征的贡献值。例如,如果终端节点所处于的分支基于“IP评分”特征和“登录计数”特征,则该终端节点可以与“IP评分”和“登录计数”的特征贡献评分相关联。这些特征贡献值可以指示特定特征对该终端节点的对应响应值的贡献量。
在方法的步骤507处,分类服务器可以接收新实体的新实体数据。新实体数据可以从请求计算机接收。新实体数据可以指示实体的每个特征的特征值。在某些情况下,分类服务器可以使用特征提取过程来确定实体的特征。此步骤可在在线阶段执行。
在方法的步骤508处,分类服务器可以使用新实体的特征值来遍历分类模型。在遍历分类模型时,分类服务器可以基于实体特征是否满足包括那些终端节点的分支的条件选择多个终端节点。分类服务器然后可以确定分类模型内每个决策树的响应值,并识别与响应值相关联的特征贡献值(例如,与关联该响应值的终端节点相关联)。此步骤可在在线阶段执行。
在方法的步骤509处,分类服务器基于响应值对新实体进行分类。例如,分类服务器可以基于使用sigmoidal函数和一个或多个阈值的聚合响应评分来确定一个或多个分类器。此步骤可在在线阶段执行。
在方法的步骤510处,分类服务器可以识别每个分类器的原因代码。原因代码可以是标签,其指示曾是实体分类的最大原因的实体的特征。在某些情况下,可以将原因代码发送到请求计算机。此步骤可在在线阶段执行。
VI.示例性计算机系统
本文所描述的各种参与者和元件可操作一个或多个计算机设备以促进本文所描述的功能。上文所描述的图中的任何要素,包含任何服务器或数据库,都可以使用任何合适数目的子系统来促进本文中所描述的功能。
此类子系统或组件经由系统总线而互连。子系统可包含打印机、键盘、固定磁盘(或包括计算机可读介质的其它存储器)、耦合到显示适配器的监视器,以及其它装置。耦合到输入/输出(I/O)控制器(其可以是处理器或其他合适的控制器)的外围设备和I/O设备可通过所属领域已知的任何数目的设备,例如串行端口连接到计算机系统。例如,可以使用串行端口或外部接口将计算机装置连接到如互联网的广域网、鼠标输入设备或扫描仪。经由系统总线的互连允许中央处理器与每个子系统通信,且控制来自系统存储器或固定磁盘的指令的执行,以及子系统之间的信息交换。系统存储器和/或固定磁盘可体现计算机可读介质。
如上所述,实施方案可以涉及实现一个或多个功能、过程、操作或方法步骤。在一些实施例中,由于通过适当编程的计算设备、微处理器、数据处理器等执行指令集或软件代码,可实施功能、过程、操作或方法步骤。指令集或软件代码可存储在由计算设备、微处理器等访问的存储器或其它形式的数据存储元件中。在其它实施例中,功能、过程、操作或方法步骤可由固件或专用处理器、集成电路等实施。
应当理解,如上文描述的本发明可以以模块化或集成方式使用计算机软件以控制逻辑的形式来实现。基于本文中所提供的公开内容和教示,所述领域的普通技术人员将知道并了解使用硬件及硬件与软件的组合来实施本发明的系统的方法的其它方式和/或方法。
本申请中描述的任何软件部件或功能可使用任何合适的计算机语言实施为由处理器执行的软件代码,所述计算机语言例如使用常规的或面向对象的技术等的Java、C++或Perl。软件代码可以存储为例如随机存取存储器(RAM)、只读存储器(ROM)、例如硬盘驱动器或软盘的磁性介质或例如CD-ROM的光学介质的计算机可读介质上的一系列指令或命令。计算机可读介质可以是此类存储或传输装置的任何组合。
此类程序还可以使用适应于经由包含因特网的符合多种协议的有线、光学和/或无线网络进行传输的载波信号来编码和传输。因此,根据本发明的实施例的计算机可读介质可以使用以此类程序编码的数据信号来创建。以程序代码编码的计算机可读介质可与兼容装置一起封装或与其它装置分开地提供(例如,经由因特网下载)。任何此类计算机可读介质可以驻留于单个计算机产品(例如,硬盘驱动器、CD或整个计算机系统)上或内,且可存在于系统或网络内的不同计算机产品上或内。计算机系统可以包含用于将本文中所提及的任何结果提供给用户的监视器、打印机或其它合适的显示器。
本文中所描述的任何方法可以完全或部分地用计算机系统来执行,所述计算机系统包含可被配置成执行所述步骤的一个或多个处理器。因此,实施例可以涉及被配置成执行本文中所描述的任何方法的步骤、可能具有执行相应步骤或相应步骤群组的不同组件的计算机系统。尽管以编号的步骤呈现,但是可以同时或以不同的顺序执行本文中的方法的步骤。另外,这些步骤的部分可以与其它方法的其它步骤的部分一起使用。此外,步骤的全部或部分可以是任选的。另外,任何方法的任何步骤都可以用执行这些步骤的模块、单元、电路或其它构件来执行。
虽然已经详细描述了且在附图中示出了某些示范性实施例,但应理解,这样的实施例仅仅是对本发明的说明而非限制,且本发明不限于所示出和描述的具体安排和构造,因为本领域的普通技术人员可想到各种其它修改。
如本文所使用,除非明确指示有相反的意思,否则使用“一个”、“一种”或“所述”旨在指示“至少一个”。
本文中提到的所有专利、专利申请、公开和描述出于所有目的通过引用被全部并入本文中。不承认它们是现有技术。

Claims (20)

1.一种用于识别原因代码的方法,所述方法包括:
获得多个实体的训练数据,所述多个实体中的每个实体由多个特征表征,所述训练数据包括针对所述多个实体中的每个实体的所述多个特征中的每个特征的特征值;
获得所述多个实体的分类数据,所述分类数据将多个分类器与所述多个实体相关联,所述多个实体中的每个实体与所述多个分类器中的一个或多个分类器相关联;
使用所述训练数据和所述分类数据构建分类模型,所述分类模型包括用于选择所述一个或多个分类器的多个决策树;
确定包括所述多个特征中的每个特征的预期值的多个预期值,特定特征的所述预期值基于所述多个实体中的每个实体的那个特征的特征值;
基于所述分类模型和所述多个预期值确定多个特征贡献值;
将所述多个特征贡献值与所述分类模型相关联;
从请求计算机接收新实体的新实体数据,所述新实体数据包括针对所述多个特征中的每个特征的多个新特征值;
使用所述多个新特征值遍历所述分类模型,所述分类模型的遍历用于选择所述新实体的一个或多个新分类器和一个或多个贡献特征;
识别所述一个或多个贡献特征中的每个贡献特征的原因代码;以及
向所述请求计算机发送所述一个或多个分类器和原因代码。
2.根据权利要求1所述的方法,其中,所述多个决策树中的每个决策树包含多个分支,每个分支包含一个或多个条件节点和终端节点,所述一个或多个条件节点中的每个条件节点与特定特征和所述特定特征的特征值集合相关联,所述终端节点中的每个终端节点与响应值相关联,其中,所述一个或多个分类器的选择基于所述响应值。
3.根据权利要求1所述的方法,其中,特定特征的特征贡献值的确定是基于差值,所述差值是基于所述特定特征具有第一条件的第一分支中包括的第一终端节点的第一响应值和基于所述特定特征具有第二条件的第二分支中包括的第二终端节点的第二响应值之间的差值。
4.根据权利要求1所述的方法,其中,所述多个特征中的每个特征的预期值的确定基于所述多个实体中的每个实体的那个特征的特征值。
5.根据权利要求1所述的方法,其中,所述多个特征中的每个特征的预期值的确定基于所述多个实体中的每个实体的那个特征的特征值的平均值。
6.根据权利要求1所述的方法,其中,所述多个特征贡献值的确定包括确定所述多个特征中的每个特征的一个或多个特征贡献值。
7.根据权利要求6所述的方法,其中,所述多个特征贡献值的确定包括基于与特定终端节点相关联的响应值以及与包括所述特定终端节点的分支的条件节点相关联的每个特征的预期值确定所述多个决策树中的每个决策树的每个终端节点的一个或多个特征贡献值,所述特定终端节点的所述一个或多个特征贡献值包括与包括所述特定终端节点的分支的条件节点相关联的每个特征的特征贡献值。
8.根据权利要求1所述的方法,其中,特定特征的特征贡献值指示所述特定特征对于对应的响应值的贡献量。
9.根据权利要求1所述的方法,还包括基于使用所述新实体的所述多个新特征值遍历所述分类模型,从所述多个决策树选择第一多个终端节点。
10.根据权利要求9所述的方法,还包括:
识别与所选择的第一多个终端节点中的每个终端节点相关联的第一响应值和一个或多个第一特征贡献值;
基于所述第一响应值选择所述新实体的一个或多个分类器;以及
基于所述一个或多个第一特征贡献值,选择所述新实体的一个或多个贡献特征。
11.一种计算机系统,包括:
一个或多个处理器电路;和
非暂时性计算机可读存储介质,所述非暂时性计算机可读存储介质耦合到所述一个或多个处理器电路,所述存储介质存储能够由所述一个或多个处理器电路执行以执行方法的代码,所述方法包括:
获得多个实体的训练数据,所述多个实体中的每个实体由多个特征表征,所述训练数据包括针对所述多个实体中的每个实体的所述多个特征中的每个特征的特征值;
获得所述多个实体的分类数据,所述分类数据将多个分类器与所述多个实体相关联,所述多个实体中的每个实体与所述多个分类器中的一个或多个分类器相关联;
使用所述训练数据和所述分类数据构建分类模型,所述分类模型包括用于选择所述一个或多个分类器的多个决策树;
确定包括所述多个特征中的每个特征的预期值的多个预期值,特定特征的所述预期值基于所述多个实体中的每个实体的那个特征的特征值;
基于所述分类模型和所述多个预期值确定多个特征贡献值;
将所述多个特征贡献值与所述分类模型相关联;
从请求计算机接收新实体的新实体数据,所述新实体数据包括针对所述多个特征中的每个特征的多个新特征值;
使用所述多个新特征值遍历所述分类模型,所述分类模型的遍历用于选择所述新实体的一个或多个新分类器和一个或多个贡献特征;
识别所述一个或多个贡献特征中的每个贡献特征的原因代码;以及
向所述请求计算机发送所述一个或多个分类器和原因代码。
12.根据权利要求11所述的系统,其中,所述多个决策树中的每个决策树包含多个分支,每个分支包含一个或多个条件节点和终端节点,所述一个或多个条件节点中的每个条件节点与特定特征和所述特定特征的特征值集合相关联,所述终端节点中的每个终端节点与响应值相关联,其中,所述一个或多个分类器的选择基于所述响应值。
13.根据权利要求11所述的系统,其中,特定特征的特征贡献值的确定是基于差值,所述差值是基于所述特定特征具有第一条件的第一分支中包括的第一终端节点的第一响应值和基于所述特定特征具有第二条件的第二分支中包括的第二终端节点的第二响应值之间的差值。
14.根据权利要求11所述的系统,其中,所述多个特征中的每个特征的预期值的确定基于所述多个实体中的每个实体的那个特征的特征值。
15.根据权利要求11所述的系统,其中,所述多个特征中的每个特征的预期值的确定基于所述多个实体中的每个实体的那个特征的特征值的平均值。
16.根据权利要求11所述的系统,其中,所述多个特征贡献值的确定包括确定所述多个特征中的每个特征的一个或多个特征贡献值。
17.根据权利要求16所述的系统,其中,所述多个特征贡献值的确定包括基于与特定终端节点相关联的响应值以及与包括所述特定终端节点的分支的条件节点相关联的每个特征的预期值确定所述多个决策树中的每个决策树的每个终端节点的一个或多个特征贡献值,所述特定终端节点的所述一个或多个特征贡献值包括与包括所述特定终端节点的分支的条件节点相关联的每个特征的特征贡献值。
18.根据权利要求11所述的系统,其中,特定特征的特征贡献值指示所述特定特征对于对应的响应值的贡献量。
19.根据权利要求11所述的系统,其中,所述方法还包括基于使用所述新实体的所述多个新特征值遍历所述分类模型,从所述多个决策树选择第一多个终端节点。
20.根据权利要求19所述的系统,其中,所述方法还包括:
识别与所选择的第一多个终端节点中的每个终端节点相关联的第一响应值和一个或多个第一特征贡献值;
基于所述第一响应值选择所述新实体的一个或多个分类器;以及
基于所述一个或多个第一特征贡献值,选择所述新实体的一个或多个贡献特征。
CN201880021609.3A 2017-04-07 2018-03-28 从梯度增强机识别原因代码 Active CN110462607B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/482,489 2017-04-07
US15/482,489 US10747784B2 (en) 2017-04-07 2017-04-07 Identifying reason codes from gradient boosting machines
PCT/US2018/024896 WO2018187122A1 (en) 2017-04-07 2018-03-28 Identifying reason codes from gradient boosting machines

Publications (2)

Publication Number Publication Date
CN110462607A CN110462607A (zh) 2019-11-15
CN110462607B true CN110462607B (zh) 2023-05-23

Family

ID=63711022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880021609.3A Active CN110462607B (zh) 2017-04-07 2018-03-28 从梯度增强机识别原因代码

Country Status (5)

Country Link
US (1) US10747784B2 (zh)
EP (1) EP3607475A4 (zh)
CN (1) CN110462607B (zh)
SG (1) SG11201908634PA (zh)
WO (1) WO2018187122A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017324B2 (en) * 2017-05-17 2021-05-25 Microsoft Technology Licensing, Llc Tree ensemble explainability system
US11455493B2 (en) * 2018-05-16 2022-09-27 International Business Machines Corporation Explanations for artificial intelligence based recommendations
GB2579797B (en) * 2018-12-13 2022-11-16 Room4 Group Ltd Classification of cell nuclei
US20200334679A1 (en) * 2019-04-19 2020-10-22 Paypal, Inc. Tuning fraud-detection rules using machine learning
US11132687B2 (en) * 2019-10-04 2021-09-28 Visa International Service Association Method for dynamically reconfiguring machine learning models
CN111538813B (zh) * 2020-04-26 2023-05-16 北京锐安科技有限公司 一种分类检测方法、装置、设备及存储介质
US11366834B2 (en) * 2020-07-08 2022-06-21 Express Scripts Strategie Development, Inc. Systems and methods for machine-automated classification of website interactions
US20220101069A1 (en) * 2020-09-30 2022-03-31 Microsoft Technology Licensing, Llc Machine learning outlier detection using weighted histogram-based outlier scoring (w-hbos)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269353B1 (en) * 1997-11-26 2001-07-31 Ishwar K. Sethi System for constructing decision tree classifiers using structure-driven induction
CN105159715A (zh) * 2015-09-01 2015-12-16 南京大学 一种基于抽象语法树节点变更抽取的Python代码变更提示方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7930353B2 (en) * 2005-07-29 2011-04-19 Microsoft Corporation Trees of classifiers for detecting email spam
US9147129B2 (en) 2011-11-18 2015-09-29 Honeywell International Inc. Score fusion and training data recycling for video classification
US20140279815A1 (en) 2013-03-14 2014-09-18 Opera Solutions, Llc System and Method for Generating Greedy Reason Codes for Computer Models
US9355088B2 (en) 2013-07-12 2016-05-31 Microsoft Technology Licensing, Llc Feature completion in computer-human interactive learning
US20150036942A1 (en) 2013-07-31 2015-02-05 Lsi Corporation Object recognition and tracking using a classifier comprising cascaded stages of multiple decision trees
US10339465B2 (en) 2014-06-30 2019-07-02 Amazon Technologies, Inc. Optimized decision tree based models
US10230747B2 (en) * 2014-07-15 2019-03-12 Cisco Technology, Inc. Explaining network anomalies using decision trees
WO2016070096A1 (en) 2014-10-30 2016-05-06 Sas Institute Inc. Generating accurate reason codes with complex non-linear modeling and neural networks
US11093845B2 (en) 2015-05-22 2021-08-17 Fair Isaac Corporation Tree pathway analysis for signature inference
US9578049B2 (en) 2015-05-07 2017-02-21 Qualcomm Incorporated Methods and systems for using causal analysis for boosted decision stumps to identify and respond to non-benign behaviors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269353B1 (en) * 1997-11-26 2001-07-31 Ishwar K. Sethi System for constructing decision tree classifiers using structure-driven induction
CN105159715A (zh) * 2015-09-01 2015-12-16 南京大学 一种基于抽象语法树节点变更抽取的Python代码变更提示方法

Also Published As

Publication number Publication date
EP3607475A4 (en) 2020-05-27
WO2018187122A1 (en) 2018-10-11
SG11201908634PA (en) 2019-10-30
EP3607475A1 (en) 2020-02-12
CN110462607A (zh) 2019-11-15
US10747784B2 (en) 2020-08-18
US20180293292A1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
CN110462607B (zh) 从梯度增强机识别原因代码
CN110009174B (zh) 风险识别模型训练方法、装置及服务器
US20200401939A1 (en) Systems and methods for preparing data for use by machine learning algorithms
JP6749468B2 (ja) 評価モデルのためのモデリング方法及び装置
TW201944305A (zh) 確定業務請求事件的風險機率的方法及裝置
CN107679466B (zh) 信息输出方法和装置
CN111737546B (zh) 确定实体业务属性的方法及装置
CN112883990A (zh) 数据分类方法及装置、计算机存储介质、电子设备
CN114612251A (zh) 风险评估方法、装置、设备及存储介质
CN112348321A (zh) 风险用户的识别方法、装置及电子设备
JP6062384B2 (ja) タスク割り当てサーバ、タスク割り当て方法およびプログラム
CN112487284A (zh) 银行客户画像生成方法、设备、存储介质及装置
CN112950347B (zh) 资源数据处理的优化方法及装置、存储介质、终端
CN113011961B (zh) 公司关联信息风险监测方法、装置、设备及存储介质
CN113807858B (zh) 一种基于决策树模型的数据处理方法及相关设备
CN110766086A (zh) 基于强化学习模型对多个分类模型进行融合的方法和装置
CN111523649B (zh) 针对业务模型进行数据预处理的方法及装置
CN113987351A (zh) 基于人工智能的智能推荐方法、装置、电子设备及介质
CN114971742A (zh) 一种用户分类模型的训练、用户分类处理的方法及装置
CN110472680B (zh) 目标分类方法、装置和计算机可读存储介质
CN114529191A (zh) 用于风险识别的方法和装置
US11551317B2 (en) Property valuation model and visualization
US20200265270A1 (en) Mutual neighbors
JP2021009645A (ja) 属性認識システム、学習サーバ、及び属性認識プログラム
CN117009883B (zh) 对象分类模型构建方法、对象分类方法、装置和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant