CN115968478A - 机器学习特征推荐 - Google Patents
机器学习特征推荐 Download PDFInfo
- Publication number
- CN115968478A CN115968478A CN202180049470.5A CN202180049470A CN115968478A CN 115968478 A CN115968478 A CN 115968478A CN 202180049470 A CN202180049470 A CN 202180049470A CN 115968478 A CN115968478 A CN 115968478A
- Authority
- CN
- China
- Prior art keywords
- model
- features
- text fields
- machine learning
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
生成预训练模型,其被训练以至少部分地基于与文本字段数据类型关联的特征相关性得分来预测预期的模型性能的度量。接收对用于机器学习预测的合期望的目标字段的指定和存储输入内容的一个或多个文本字段。计算针对存储输入内容的一个或多个文本字段中的每个的对应的特征相关性得分。基于对应的所计算的特征相关性得分,使用预训练模型来预测针对存储输入内容的所述一个或多个文本字段中的每个的预期模型性能的对应度量。将所预测的预期模型性能的度量提供用于在存储输入内容的所述一个或多个文本字段之中的特征选择中使用,以用于生成机器学习模型以预测合期望的目标字段。
Description
其它申请的交叉引用
本申请是2020年7月17日提交的题为“MACHINE LEARNING FEATURERECOMMENDATION (机器学习特征推荐)”的未决美国专利申请No.16/931,906的部分继续申请,该未决美国专利申请被针对所有目的通过引用合并于此。
背景技术
当与人工分类相比时,使用机器学习的自动分类的使用可以显著减少人工工作和错误。执行自动分类的一种方法涉及使用机器学习来预测用于输入数据的类别。例如,使用机器学习,可以自动地对传入任务、事件和案例进行类别化并且将其路由到被分配的一方。典型地,使用机器学习的自动分类要求包括过去经验的训练数据。一旦被训练,机器学习模型就可以被应用于新数据以推断分类结果。例如,新报告的事件可以被自动地分类、分配和路由到负责方。然而,创建准确的机器学习模型是重大的投资,并且可能是典型地要求主题专业知识的困难并且耗时的任务。例如,选择造成准确的模型的输入特征典型地要求对数据集以及特征如何影响预测结果的深入理解。
附图说明
在以下详细描述和随附附图中公开了本发明的各种实施例。
图1是图示用于创建和利用机器学习模型的网络环境的示例的框图。
图2是图示用于创建机器学习解决方案的处理的实施例的流程图。
图3是图示用于自动识别用于机器学习模型的推荐特征的处理的实施例的流程图。
图4是图示用于自动识别用于机器学习模型的推荐特征的处理的实施例的流程图。
图5是图示用于自动识别用于机器学习模型的推荐特征的评估处理的实施例的流程图。
图6是图示用于创建用于确定特征的性能度量的离线模型的处理的实施例的流程图。
图7是图示用于自动识别和评估作为用于机器学习模型的潜在特征的文本字段的处理的实施例的流程图。
图8是图示用于评估作为用于机器学习模型的特征的文本字段的合格度以预测合期望的目标字段的处理的实施例的流程图。
图9是图示用于准备输入文本字段数据以确定影响得分的处理的实施例的流程图。
图10是图示用于确定用于文本字段特征的性能度量的处理的实施例的流程图。
具体实施方式
本发明可以以多种方式实施,包括作为方法;装置;系统;物体组成部;在计算机可读存储介质上体现的计算机程序产品;和/或处理器,诸如被配置为执行存储在耦合到处理器的存储器上和/或由耦合到处理器的存储器提供的指令的处理器。在本说明书中,这些实现或者本发明可以采取的任何其它形式可以被称为技术。一般而言,在本发明的范围内,可以更改所公开的处理的步骤的顺序。除非另外声明,否则被描述为被配置为执行任务的诸如处理器或存储器的组件可以被实现为临时配置为在给定时间执行任务的通用组件或被制造为执行任务的特定组件。如在此使用的那样,术语“处理器”指代被配置为处理诸如计算机程序指令之类的数据的一个或多个设备、电路和/或处理核。
下面连同图示本发明的原理的随附各图一起提供本发明的一个或多个实施例的详细描述。与这样的实施例有关地描述本发明,但是本发明不限制于任何实施例。本发明的范围仅受权利要求限制,并且本发明涵盖许多替换、修改和等同物。在以下描述中阐述了许多具体细节,以便提供对本发明的透彻理解。这些细节是出于示例的目的而提供的,并且本发明可以是在没有这些具体细节中的一些或全部的情况下根据权利要求实践的。为了清楚的目的,没有详细描述与本发明相关的技术领域中已知的技术材料,从而不会不必要地模糊本发明。
公开了用于选择机器学习特征的技术。当构建机器学习模型时,特征选择可以显著地影响模型的准确度和可用性。然而,在没有主题专业知识和对机器学习问题的深入理解的情况下,适当地选择改进模型的准确度的特征可能是挑战。使用所公开的技术,机器学习特征可以被自动推荐和选择,这造成机器学习模型的预测准确度上的显著改进。此外,几乎乃至根本不要求主题专业知识。例如,具有对输入数据集的最小理解的用户可以成功地生成可以准确预测分类结果的机器学习模型。在一些实施例中,用户可以经由诸如软件即服务web应用之类的软件服务来利用机器学习平台。
在各种实施例中,用户向机器学习平台提供输入数据集,诸如识别一个或多个数据库表。所提供的数据集包括多个合格特征。合格特征可以包括在准确地预测机器学习结果中有用的特征以及对于准确地预测机器学习结果无用或具有较小影响的特征。准确地识别有用特征可以造成高度准确的模型并且改进资源使用和性能。例如,训练具有无用特征的模型可能是显著的资源消耗,其可以通过准确地识别和忽略无用特征来避免。在各种实施例中,用户指定合期望的目标字段以进行预测,并且使用所公开的技术的机器学习平台可以从所提供的输入数据集生成一组推荐的机器学习特征以用于在建立机器学习模型中使用。在一些实施例中,通过将一系列评估应用于合格特征以过滤无用特征并且识别有用特征来确定推荐的机器学习特征。一旦确定了一组推荐的特征,就可以将其呈现给用户。例如,在一些实施例中,按对预测结果的改进的顺序对特征进行排序。在一些实施例中,使用由用户基于推荐的特征选择的特征来训练机器学习模型。例如,可以使用通过对预测结果的改进而自动识别和排序的推荐特征来自动训练模型。
在一些实施例中,接收对用于机器学习预测的合期望的目标字段的指定和存储机器学习训练数据的一个或多个表。例如,软件即服务平台的客户指定一个或多个客户数据库表。表可以包括来自过去的经验的数据,诸如已被分类的传入任务、事件和案例。例如,分类可以包括对任务、事件或案件的类型进行类别化,以及分配要负责解决问题的适当的一方。在一些实施例中,机器学习数据被存储在不同于数据库的另外的适当的数据结构中。在各种实施例中,合期望的目标字段是分类结果,其可以是所接收的表之一中的列。由于所接收的数据库表数据未必被准备为训练数据,因此数据可以包括用于预测分类结果的有用的和无用的字段。在一些实施例中,在一个或多个表内识别用于建立机器学习模型以执行针对合期望的目标字段的预测的合格机器学习特征。例如,从数据库数据中,将字段识别为用于训练机器学习模型的潜在特征或合格特征。在一些实施例中,合格特征基于表的列。使用不同评估的管线来评估合格的机器学习特征,以相继地过滤掉合格的机器学习特征中的一个或多个,以在合格的机器学习特征中识别一组推荐的机器学习特征。通过从合格特征中相继地过滤掉特征,剔除了对模型预测准确度具有较小影响的特征。余下的特征是具有预测值的推荐特征。过滤管线的每个步骤识别没有帮助的附加特征(以及可能有帮助的特征)。例如,在一些实施例中,一个过滤步骤移除其中特征数据不必要或超出范围的特征。稀疏地布居在其相应的数据库表中的特征或者其中特征的所有值相同(例如,是常数)的特征可以被过滤掉。在一些实施例中,非标称列被过滤掉。在一些实施例中,过滤步骤计算用于每个合格特征的影响得分。可以从推荐中移除具有低于特定阈值的影响得分的特征。在一些实施例中,针对每个合格特征评估性能度量。例如,关于特定特征,可以评估在查准率-查全率曲线(AUPRC)下模型面积上的增加。在一些实施例中,模型被离线训练以通过评估针对机器学习问题的大横截面的特征选择来将影响得分转换为性能度量。然后模型可以被应用于特定的客户的机器学习问题,以确定可以被用于对合格特征进行排序的性能度量。一旦被识别,就提供一组推荐的机器学习特征以用于在建立机器学习模型中使用。例如,客户可以从推荐的特征中进行选择,并且请求使用所提供的数据和所选择的特征来训练机器学习模型。然后可以将模型合并到客户的工作流程中,以预测合期望的目标字段。例如,在数据集以及机器学习这两者中,在几乎乃至完全没有主题专业知识的情况下,可以为可以用于推断目标字段的机器学习模型自动推荐(和选择)特征。
在一些实施例中,合格特征包括作为文本输入数据的数据。例如,文本输入数据可以是具有可变和/或任意长度的文本输入,诸如从输入文本字段、电子邮件主题或主体、聊天对话等收集的用户输入。在各种实施例中,在潜在的其它识别的表数据中,一个或多个列可以包括文本输入作为用于预测合期望的目标字段的潜在特征。例如,用户指定合期望的目标字段和数据库表。包括在表中的输入文本字段被评估为合格特征以确定对应于每个输入文本字段有多好地预测合期望的目标字段的性能度量。在一些实施例中,对由用户提供的被评估的字段进行排序并且在排序的合格字段中包括文本输入字段。如同其它合格的特征一样,评估文本输入字段以确定特征的影响得分。在一些实施例中,影响得分可以被计算为过滤式选择(relief)得分。例如,在一些实施例中,过滤式选择得分是加权和归一化的过滤式选择得分。可以针对同一合格的特征计算多个加权和归一化的过滤式选择得分,并且可以使用平均影响得分。
在一些实施例中,所确定的影响得分被用于预测性能度量。性能度量预测可以是通过应用离线训练的机器学习模型确定的。例如,使用过滤式选择得分和文本字段密度得分,机器学习模型可以预测用于文本输入字段的性能度量。在一些实施例中,性能量度基于在查准率-查全率曲线(AUPRC)下模型面积上的预期增加。所应用的模型通过评估针对机器学习问题的大横截面的特征选择来将影响得分转换为性能度量。在评估合格特征之前,可以离线执行用于模型的这种训练。通过利用离线训练的模型,可以使用所确定的特征的影响得分来快速地确定用于合格特征的性能度量。在各种实施例中,虽然对经训练的模型的至少一个输入是文本输入字段的影响得分,但是诸如字段的文本字段密度之类的附加输入可以是适当的,以还改进性能度量预测的准确度。在各种实施例中,预测的性能度量可以被用于对用户提供的数据集的合格特征进行排序和推荐。
在一些实施例中,生成预训练的模型以至少部分地基于与文本字段数据类型关联的特征相关性得分来预测预期模型性能的度量。例如,可以通过评估用于机器学习问题的大横截面的特征选择来离线训练模型。特别是,训练模型以预测具有文本字段数据类型的特征的性能得分或度量。使用诸如影响得分之类的特征相关性得分,模型可以预测合格特征的预期的模型性能。例如,性能可以是就查准率-查全率曲线(AUPRC)下模型的面积上的特征的预期改进来提供的。在一些实施例中,接收对用于机器学习预测的合期望的目标字段的指定和存储输入内容的一个或多个文本字段。例如,用户指定合期望的目标字段,诸如来自客户数据库表的字段。用户还指定附加字段,诸如来自同一数据库表或其它数据库表的一个或多个文本字段。附加字段是对于预测用于合期望的目标字段的结果而言可以是有用的合格特征。合格特征可以由用户指定以用于评估,以确定应当推荐哪个合格特征以用于预测合期望的目标字段。在一些实施例中,针对存储输入内容的一个或多个文本字段中的每个文本字段计算对应的特征相关性得分。例如,针对每个合格文本字段特征计算影响得分。影响得分可以是过滤式选择得分,诸如是归一化的、加权的和平均的过滤式选择得分。在一些实施例中,基于对应的计算的特征相关性得分,使用预训练的模型来预测用于存储输入内容的一个或多个文本字段中的每个的预期模型性能的对应的度量。例如,使用预训练的模型,使用所计算的影响/相关性得分来针对一个或多个文本字段特征中的每个推断预期的模型性能。在一些实施例中,预期的模型性能是性能度量,诸如在查准率-查全率曲线(AUPRC)下模型面积上的预期改进。提供所预测的预期模型性能的度量以用于在存储输入内容的一个或多个文本字段之中的特征选择中使用,以用于生成机器学习模型以预测合期望的目标字段。例如,预测的性能度量可以被用于推荐哪些文本字段特征应当被利用于创建机器学习模型以预测合期望的目标字段。在一些实施例中,文本字段特征被按性能度量排序,并且只有满足性能阈值的特征可被推荐。用户可以从其它合格的和排序的非文本字段特征中的推荐的文本字段特征进行选择,以生成机器学习模型来预测合期望的目标字段。
图1是图示用于创建和利用机器学习模型的网络环境的示例的框图。在所示出的示例中,客户端101、103和105经由网络111访问服务器121上的服务。服务包括利用机器学习的预测服务。例如,服务可以包括使用推荐的特征生成机器学习模型的能力以及用于应用所生成的模型来预测诸如分类结果之类的结果的服务这两者。网络111可以是公共或专用网络。在一些实施例中,网络111是诸如因特网的公共网络。在各种实施例中,客户端101、103和105是网络客户端,诸如用于访问由服务器121提供的服务的web浏览器。在一些实施例中,服务器121提供包括用于利用机器学习平台的web应用的服务。服务器121可以是一个或多个服务器,包括用于识别用于训练机器学习模型的推荐特征的服务器。服务器121可以利用数据库123来提供某些服务和/或用于存储与用户关联的数据。例如,数据库123可以是由服务器121使用的配置管理数据库(CMDB),用于提供客户服务和存储客户数据。在一些实施例中,数据库123存储与客户任务、事件和案例等相关的客户数据。数据库123还可以被用于存储与用于训练机器学习模型的特征选择有关的信息。在一些实施例中,数据库123可以存储与被管理的资产有关的客户配置信息,诸如相关的硬件和/或软件配置。
在一些实施例中,客户端101、103和105中的每个可以访问服务器121以创建定制机器学习模型。例如,客户端101、103和105可以表示一个或多个不同的客户,每个客户想要创建可以被应用于预测结果的机器学习模型。在一些实施例中,服务器121向诸如客户端101、103和105之类的客户端提供用于选择和/或确认用于训练机器学习模型的特征选择的交互式工具。例如,软件即服务平台的客户经由诸如客户端101、103和105的客户端向服务器121提供诸如客户数据的相关训练数据作为训练数据。所提供的客户数据可以是存储在数据库123的一个或多个表中的数据。连同所提供的训练数据一起,客户选择合期望的目标字段,诸如所提供的表的表列之一。使用所提供的数据和合期望的目标字段,服务器121推荐以高准确度预测合期望的目标字段的一组特征。客户可以选择推荐的特征的子集,从该子集来训练机器学习模型。在一些实施例中,使用所提供的客户数据来训练模型。在一些实施例中,作为特征选择处理的一部分,向客户提供每个推荐特征的性能度量。性能度量向客户提供与特定特征改进模型的预测准确度的程度有关的量化值。在一些实施例中,基于对预测准确度的影响来对推荐的特征进行排序。
在一些实施例中,经训练的机器学习模型被合并到应用中以推断合期望的目标字段。例如,应用可以接收支持事件事态的传入报告并且预测用于该事件的类别和/或将所报告的事件事态分配给负责方。支持事件应用可以由服务器121托管,并且由诸如客户端101、103和105的客户端访问。在一些实施例中,客户端101、103和105中的每个可以是在包括膝上型计算机、台式计算机、移动设备、平板计算机、信息站、智能电视等的许多不同计算设备之一上运行的网络客户端。
虽然为了使图简化而已经示出了一些组件的单个实例,但是可以存在图1中示出的任何组件的附加实例。例如,服务器121可以包括一个或多个服务器。服务器121中的一些服务器可以是web应用服务器、训练服务器和/或干扰服务器。如在图1中示出那样,服务器被简化为单个服务器121。类似地,数据库123可以不直接连接到服务器121,可以是多于一个的数据库,和/或可以是跨多个组件复制或分布的。例如,数据库123可以包括用于每个客户的一个或多个不同的服务器。作为另一示例,客户端101、103和105只是对于服务器121来说的潜在客户端的几个示例。更少或更多的客户端可以连接到服务器121。在一些实施例中,也可以存在图1中未示出的组件。
图2是图示用于创建机器学习解决方案的处理的实施例的流程图。例如,使用图2的处理,用户可以请求对问题的机器学习解决方案。用户可以识别用于预测的合期望的目标字段,并且提供对可以用作训练数据的数据的参考。分析所提供的数据并且推荐输入特征以用于训练机器学习模型。向用户提供推荐的特征,并且可以基于用户选择的特征来训练机器学习模型。将经训练的模型合并到机器学习解决方案中以预测用户的合期望的目标字段。在一些实施例中,用于创建机器学习解决方案的机器学习平台被托管为软件即服务web应用。在一些实施例中,用户经由诸如图1的客户端101、103和/或105之类的客户端请求解决方案。在一些实施例中,包括所创建的机器学习解决方案的机器学习平台被托管在图1的服务器121上。
在201处,请求机器学习解决方案。例如,客户可能想要使用机器学习解决方案自动预测针对传入的支持事件事态报告的负责方。在一些实施例中,用户经由web应用请求机器学习解决方案。在请求解决方案时,用户可以指定用户想要预测的目标字段并且提供相关的训练数据。在一些实施例中,所提供的训练数据是历史客户数据。客户数据可以被存储在客户数据库中。在一些实施例中,用户提供一个或多个数据库表作为训练数据。数据库表还可以包括合期望的目标字段。在一些实施例中,用户指定多个目标字段。在期望针对多个字段的预测的情况下,用户可以一起指定多个字段和/或请求多个不同的机器学习解决方案。在一些实施例中,用户还指定机器学习解决方案的其它性质,除了其它方面之外还诸如处理语言、停止词、用于所提供的数据的过滤器、以及合期望的模型名称和描述。
在203处,确定推荐的输入特征。例如,确定基于所请求的机器学习解决方案的一组合格的机器学习特征。从合格的特征中识别一组推荐的特征。在一些实施例中,通过使用不同评估的管线评估合格的机器学习特征来识别推荐特征。在管线的每个阶段处,可以相继地过滤掉合格的机器学习特征中的一个或多个。在管线的末端处,识别一组推荐的特征。在一些实施例中,推荐特征的识别包括确定与特征关联的一个或多个度量,诸如影响得分或性能度量。例如,离线训练的模型可以被应用于每个特征以确定性能度量,性能度量量化该特征将使利用该特征训练的模型的查准率-查全率曲线(AUPRC)下的面积增加多少。在一些实施例中,可以针对每个度量利用适当的阈值以确定特征是否被推荐用于在训练中使用。
在一些实施例中,合格的机器学习特征基于由用户提供的输入数据。例如,在一些实施例中,用户提供一个或多个数据库表或另外的适当的数据结构作为训练数据。在提供数据库表的情况下,合格的机器学习特征可以基于表的列。在一些实施例中,确定每个列的数据类型,并且将具有标称数据类型的列识别为合格特征。在一些实施例中,如果列数据不可能帮助预测,则可以排除来自某些列的数据。例如,可以基于数据是多稀疏地布居的、停止词的出现、用于列的不同值的相对分布等来移除列。
在205处,基于推荐的输入特征选择特征。例如,使用交互式用户界面,向用户呈现用于在建立机器学习模型中使用的一组推荐的机器学习特征。在一些实施例中,示例用户界面被实现为web应用或web服务。用户可以从所显示的推荐特征中进行选择以确定用于训练机器学习模型的一组特征。在一些实施例中,在203处确定的推荐输入特征被自动选择为用于训练的默认特征。对于选择推荐的输入特征而言可以不要求用户输入。在一些实施例中,可以基于每个推荐的输入特征如何影响模型的预测准确度来以排序顺序呈现推荐的输入特征。例如,最相关的输入特征被排序在第一位。在各种实施例中,推荐的特征与影响得分和/或性能度量一起显示。例如,影响得分可以度量特征对模型准确度有多大影响。性能度量可以量化在特征被用于训练的情况下模型将改进多少。例如,在一些实施例中,所显示的性能度量基于当使用特征时机器学习模型的查准率-查全率曲线(AUPRC)下的面积上的增加量。可以适当地使用其它性能度量。通过对不同特征进行排序和量化,具有很少的任何主题专业知识的用户可以容易地选择适当的输入特征来训练高准确度的模型。
在207处,使用所选择的特征来训练机器学习模型。例如,使用在205处选择的特征,准备训练数据集并且将其用于训练机器学习模型。模型预测在201处指定的合期望的目标字段。在一些实施例中,训练数据基于在201处接收的客户数据。客户数据可以被剥离掉对于训练而言无用的数据,诸如来自对应于在205处未被选择的特征的表列的数据。例如,从用于训练机器学习模型的数据集中排除对应于与被识别为对预测的准确度具有很小乃至没有影响的特征关联的列的数据。
在209处,托管机器学习解决方案。例如,应用服务器和机器学习平台托管用以将经训练的机器学习模型应用于输入数据的服务。例如,web服务应用经训练的模型以自动地对传入事件报告进行类别化。类别化可以包括识别事件的类型和负责方。一旦被类别化,托管的解决方案就可以将事件分配并且路由到预测的负责方。在一些实施例中,托管的应用是用于软件即服务平台的客户的定制机器学习解决方案。在一些实施例中,解决方案被托管在图1的服务器121上。
图3是图示用于自动识别用于机器学习模型的推荐特征的处理的实施例的流程图。使用图3的处理,用户可以通过利用从潜在的训练数据识别的推荐特征来自动化机器学习模型的创建。用户指定合期望的目标字段并且供给潜在的训练数据。机器学习平台从所供给的数据中识别推荐字段,以用于创建机器学习模型来预测合期望的目标字段。在一些实施例中,图3的处理在图2的201处执行。在一些实施例中,图3的处理在图1的服务器121处的机器学习平台上执行。
在301处,启动模型创建。例如,客户经由web服务应用启动机器学习模型的创建。在一些实施例中,客户通过经由用于创建自动工作流的软件即服务平台访问模型创建网页来启动模型创建。服务可以是允许用户合并经训练的模型以预测结果的更大的机器学习平台的一部分。在一些实施例中,预测结果可以被用于自动化工作流处理,诸如一旦使用训练模型自动预测了适当的一方,就将事件报告路由到被分配的一方。
在303处,识别训练数据。例如,用户指明数据作为潜在的训练数据。在一些实施例中,用户指向来自客户数据库或存储潜在训练数据的另外的适当数据结构的一个或多个数据库表。数据可以是历史客户数据。例如,历史客户数据可以包括存储在一个或多个数据库表中的传入事件报告以及它们的分配的负责方。在一些实施例中,所识别的训练数据包括大量潜在的输入特征,并且可能未被适当地准备为高质量训练数据。例如,某些数据列可能是被稀疏地布居的或者仅包含相同的常数值。作为另一示例,列的数据类型可能被不正确地配置。例如,标称或数字数据值可以被作为文本存储在所识别的数据库表中。在各种实施例中,在所识别的训练数据可以被有效地用作训练数据之前,要求对所识别的训练数据进行准备。例如,移除来自一个或多个列的对模型预测准确度具有很小影响乃至没有影响的数据。
在305处,选择合期望的目标字段。例如,用户指明用于机器学习预测的合期望的目标字段。在一些实施例中,用户从在303处识别的数据中选择列字段。例如,用户可以选择用于事件报告的类别类型来表达用户期望创建机器学习模型以预测传入事件报告的类别类型。在一些实施例中,用户可以从在303处提供的训练数据的潜在输入特征中进行选择。在一些实施例中,用户选择被一起预测的多个合期望的目标字段。
在307处完成模型配置。例如,用户可以提供附加的配置选项,诸如模型名称和描述。在一些实施例中,用户可以指定可选的停止词。例如,可以供给停止词以准备训练数据。在一些实施例中,从所提供的数据中移除停止词。在一些实施例中,用户可以指定用于所提供的数据的处理语言和/或附加的过滤器。例如,可以默认或建议添加用于指定语言的停止词。关于指定的附加过滤器,可以应用条件过滤器来从在303处识别的训练数据创建所表示的数据集。在一些实施例中,可以通过应用一个或多个指定的条件过滤器来从训练数据中移除所提供的表的行。例如,表可以包含具有可能值“新的”、“进行中”、“保持”和“已解决”的“状态”列。可以指定条件以仅将其中“状态”字段具有值“已解决”的行用作训练数据。作为另一示例,可以指定条件以仅利用在指定日期或时间框之后创建的行作为训练数据。
图4是图示用于自动识别用于机器学习模型的推荐特征的处理的实施例的流程图。例如,使用图4的特征选择管线,可以实时评估数据集的合格特征以确定每个潜在特征将如何影响用于预测合期望的目标字段的机器学习模型。在各种实施例中,确定一组推荐特征,并且可以从该组推荐特征中进行选择以训练机器学习模型。推荐的特征是基于它们在预测合期望的目标字段中的准确度来选择的。例如,不推荐无用的特征。在一些实施例中,图4的处理在图2的203处执行。在一些实施例中,图4的处理在图1的服务器121处的机器学习平台上执行。
在401处,从数据库表检索数据。例如,用户识别存储在一个或多个识别的数据库表中的潜在训练数据集,并且检索关联的数据。在一些实施例中,在检索数据之前(或之后)将条件过滤器应用于关联的数据。例如,基于条件过滤器,仅可以检索数据库表的某些行。作为另一示例,从检索到的数据中移除停止词。在一些实施例中,数据被从所识别的表检索到机器学习训练服务器。
在403处,识别列数据类型。例如,识别每列数据的数据类型。在一些实施例中,在数据库表中配置的列数据类型不具体到足以用于评估关联的特征。例如,标称值可以作为文本或二进制大对象(BLOB)值存储在数据库表中。作为另一示例,数字或日期类型也可以被存储为文本(或串)数据类型。在各种实施例中,在403处,在没有用户干预的情况下自动识别列数据类型。
在一些实施例中,通过首先扫描通过列的所有不同值并且分析扫描结果来识别数据类型。列的性质可以被用于确定列值的有效数据类型。例如,文本数据可以是至少部分地由空格的数量和列字段中的文本长度变化的量来识别的。作为另一示例,在存储在列字段中的实际值中存在很少变化或没有变化的情况下,列数据类型可以被确定为标称数据类型。例如,具有五个离散值但是被存储为串值的列可以被识别为标称类型。在一些实施例中,值类型的分布被用作识别数据类型中的因素。例如,如果列中的高百分比的值是数字,则那么该列可以被分类为数字数据类型。
在405处,对数据列执行预处理。在一些实施例中,应用一组预处理规则以移除无用列。例如,移除具有稀疏地布居的字段的列。在一些实施例中,利用阈值来确定列被稀疏地布居并且是用于移除的候选与否。例如,在一些实施例中,使用20%的阈值。其中布居有少于20%的数据的列是不必要的列并且可以被移除。作为另一示例,移除其中所有值是常数的列。在一些实施例中,移除如下的列:其中一个值支配其它值,例如,支配值在多余80%(或另外的阈值量)的记录中出现。其中每个值是唯一的或者是ID的列也可以被移除。在一些实施例中,移除非标称列。例如,可以移除具有二进制数据或文本串的列。在各种实施例中,预处理步骤仅将所有合格特征的子集从作为推荐的输入特征的考虑中消除。
在407处,评估合格的机器学习特征。例如,针对对训练准确的机器学习模型的影响来评估合格的机器学习特征。在一些实施例中,使用评估管线来评估合格的机器学习特征,以按在预测合期望的目标值方面的有用性来相继地过滤特征。例如,在一些实施例中,第一评估步骤可以确定影响得分,诸如过滤式选择得分,以识别列对分类模型带来的区别。可以从推荐中移除具有低于阈值的过滤式选择得分的列。作为另一示例,在一些实施例中,第二评估步骤可以确定影响得分,诸如针对列的信息增益或加权信息增益。使用所选择的特征和合期望的目标字段,可以通过如下来确定影响得分:通过在考虑特征时使用信息熵的改变来比较特征的改进。可以从推荐中移除具有低于阈值的信息增益或加权信息增益得分的列。在一些实施例中,第三评估设定可以确定用于每个特征的性能度量。例如,模型被离线创建以将影响得分(诸如信息增益或加权信息增益得分)转换为性能度量(诸如基于用于模型的查准率-查全率曲线(AUPRC)下的面积的增加的性能度量)。在各种实施例中,将经训练的模型应用于影响得分以确定用于每个余下的合格特征的基于AUPRC的性能度量。使用所确定的性能度量,可以从推荐中移除具有低于阈值的性能度量的列。虽然上面描述了三个评估步骤,但是基于针对一组推荐的特征的合期望的结果,可以适当地利用更少的或附加的步骤。例如,除了所述描述的评估步骤之外或者替代所描述的评估步骤,可以应用一个或多个不同的评估技术,以进一步减少合格特征的数量。
在各种实施例中,通过应用相继的评估步骤,识别用于建立机器学习模型的一组推荐的机器学习特征。在一些实施例中,相继的评估步骤对于确定哪些特征造成准确的模型是必要的。任何一个评估步骤单独地可能是不够的,并且可能不正确地识别对于训练而言不良的特征以用于推荐。例如,特征可以具有高的过滤式选择得分,但是具有低的加权信息增益得分。低的加权信息增益得分指示特征不应当被用于训练。在一些实施例中,关键字或类似的标识符列是对于训练而言不良的特征,因为其具有很少的预测值。当被在评估步骤之一下评估时列可能具有高的影响得分,但是将被从由相继的评估步骤推荐中过滤掉。
在409处,提供推荐的特征。例如,余下的特征被推荐作为输入特征。在一些实施例中,经由web应用的图形用户界面向用户提供一组推荐的特征。推荐的特征可以被提供有与每个特征对模型准确度具有多少影响有关的量化度量。在一些实施例中,特征是以排序顺序提供的,允许用户选择最有影响的特征以用于训练机器学习模型。
在一些实施例中,无用的特征也被连同推荐特征一起提供。例如,用户被提供有被识别为无用的或对模型准确度具有较小影响的一组特征。该信息可以有助于用户获得对机器学习问题和解决方案的更好理解。
图5是图示用于自动识别用于机器学习模型的推荐特征的评估处理的实施例的流程图。在一些实施例中,评估处理是用以从合格的机器学习特征中相继地过滤特征以识别一组推荐的机器学习特征的多步骤处理。处理利用作为从其识别合格的机器学习特征的潜在训练数据提供的数据并且可以被实时地执行。虽然关于图5利用特定的评估步骤进行了描述,但是评估处理的替换实施例可以利用更少或更多的评估步骤,并且可以合并不同的评估技术。在一些实施例中,图5的处理是在图2的203处和/或在图4的407处执行的。在一些实施例中,图5的处理是在图1的服务器121处的机器学习平台上执行的。
在501处,使用确定的过滤式选择得分评估特征。在各种实施例中,在501处确定使用基于过滤式选择的技术的影响得分,并且影响得分被用于过滤一个或多个合格的机器学习特征以识别一组推荐的机器学习特征。例如,确定基于针对每个特征的过滤式选择得分的影响得分。可以从推荐中移除具有低于阈值的过滤式选择得分的列。在一些实施例中,过滤式选择得分对应于列在区分不同的分类结果方面具有的影响。在各种实施例中,针对每个特征,选择多个邻近的行。除了用于当前被评估的列的值之外基于具有类似的值(或在数学上接近或邻近的值)来选择行。例如,对于具有三个列A、B和C的表而言,通过选择具有用于对应的列B和C的类似值的行(即,对于所有选择的行而言用于列B的值是类似的,并且对于所有选择的行而言用于列C的值是类似的)来评估列A。该影响得分将利用所选择的行来确定列A对合期望的目标字段有多少影响。在示例中,目标字段可以对应于列B或列C中的一个。使用所选择的邻近的行,针对每个合格的特征计算影响得分或过滤式选择得分。可以将得分归一化并且与阈值进行比较。具有落在阈值之下的过滤式选择得分的特征被识别为无用的列,并且可以被从作为推荐输入特征的进一步考虑中排除。具有满足阈值的过滤式选择得分的特征将在503处被进一步评估以用于作为推荐输入特征的考虑。在一些实施例中,合格特征被按确定的过滤式选择得分排序,并且如果特征未被排序得足够高则可以将该特征从作为推荐输入特征的考虑中移除。例如,在一些实施例中,仅保留基于排序的最大数量的特征(诸如前十个合格特征或前10%的合格特征)以用于在503处进一步评估。
在503处,使用加权信息得分来评估特征。在各种实施例中,在503处确定使用信息增益技术的影响得分,并且该影响得分被用于过滤一个或多个合格的机器学习特征以识别一组推荐的机器学习特征。例如,确定基于用于每个特征的加权信息增益得分的影响得分。可以从推荐中移除具有低于阈值的加权信息增益得分的列。在一些实施例中,当特征的值已知时,特征的加权信息增益得分对应于信息熵上的改变。加权信息增益得分是信息增益度量,其被由用于特征的不同的已知值的目标分布加权。在一些实施例中,加权与给定目标值的频率成比例。在一些实施例中,非加权的信息得分可以被用作替换的影响得分。
在各种实施例中,合格的特征被按所确定的加权信息增益得分排序,并且如果特征未被排序得够高则可以将该特征从作为推荐输入特征的考虑中移除。例如,在一些实施例中,仅保留基于排序的最大数量的特征(诸如前十个合格特征或前10%的合格特征)以用于在505处进一步评估。
在505处,针对特征确定性能度量。在各种实施例中,使用在503处确定的特征的对应影响得分来针对余下的合格特征中的每个确定性能度量。性能度量被用于过滤一个或多个合格的机器学习特征以识别一组推荐的机器学习特征。例如,加权信息增益得分(或者对于一些实施例而言非加权信息增益得分)例如是通过应用已经离线创建的模型而转换成性能度量的。在一些实施例中,模型是回归模型和/或经训练的机器学习模型,用于预测作为加权信息增益得分的函数的查准率-查全率曲线(AUPRC)下的面积上的增加。在各种实施例中,离线模型被应用于来自步骤503的影响得分以在利用被评估的特征时推断用于模型的诸如基于AUPRC的性能度量的性能度量。针对每个余下的合格特征确定的基于AUPRC的性能度量可以被用于对余下的特征进行排序,并且过滤掉不满足特定阈值或落入特定阈值范围内的那些特征。在一些实施例中,合格的特征被按所确定的基于AUPRC的性能度量排序,并且如果特征未被排序得足够高则可以将该特征从作为推荐输入特征的考虑中移除。例如,在一些实施例中,仅保留基于排序的最大数量的特征(诸如前十个合格特征或前10%的合格特征)以用于在507处的后处理。
在一些实施例中,诸如基于AUPRC的性能度量的性能度量的准确确定可能是耗时的并且资源密集的。通过利用离线准备的模型(诸如转换模型)来从加权信息增益得分确定性能度量,可以实时地确定性能度量。时间和资源密集的任务被从图5的处理并且特别是从步骤505转移到转换模型的创建,转换模型可以被预先计算并且应用于多个机器学习问题。例如,一旦创建了转换模型,就可以跨多个机器学习问题并且针对多个不同的客户和数据集来应用模型。
在507处,对合格的特征执行后处理。例如,余下的合格特征被处理以用于作为推荐机器学习特征的考虑。在一些实施例中,在507处执行的后处理包括对余下的合格特征的最终过滤。后处理步骤可以被用于基于预测的模型性能来确定余下的合格特征的最终排序。在一些实施例中,最终排序基于在505处确定的性能度量。例如,具有最高预期改进的特征被基于其性能度量排序在第一位。在各种实施例中,不满足最终阈值或落在最终阈值范围或有序排序之外的特征可以被从推荐中移除。在一些实施例中,余下的合格特征中没有一个满足用于推荐的最终阈值。例如,即使排序最靠前的特征也不显著地改进在朴素模型上的预测准确度。在这种情形下,可以不推荐余下的合格特征。在各种实施例中,在最终过滤之后的余下的合格特征是一组推荐的机器学习特征,并且每个包括性能度量和关联的排序。在一些实施例中,还创建一组非推荐的特征。例如,基于评估处理被确定为不显著改进模型预测准确度的任何特征被识别为无用的。
图6是图示用于创建用于确定特征的性能度量的离线模型的处理的实施例的流程图。使用图6的处理,创建离线模型以将特征的影响得分转换成性能度量。例如,加权信息增益得分(或对于一些实施例而言非加权信息增益得分)被用于预测查准率-查全率曲线(AUPRC)性能度量下的面积上的增加。性能度量可以被用于评估特征在改进模型预测的准确度方面具有的预期改进。在各种实施例中,模型是作为离线处理的一部分创建的并且在用于特征推荐的实时处理期间被应用。在一些实施例中,所创建的离线模型是机器学习模型。在一些实施例中,在图2的203处、图4的407处和/或图5的505处利用使用图6的处理创建的离线模型。在一些实施例中,在图1的服务器121处的机器学习平台上创建模型。
在601处,接收数据集。例如,接收多个数据集以用于建立离线模型。在一些实施例中,利用数百个数据集来建立准确的离线模型。所接收的数据集可以是存储在一个或多个数据库表中的客户数据集。
在603处,识别数据集的相关特征。例如,针对相关的特征处理所接收的数据集的列,并且移除与数据集的非相关列对应的特征。在一些实施例中,数据被预处理以识别列数据类型,并且非标称列被过滤掉以识别相关特征。在各种实施例中,仅利用相关特征来训练离线模型。在一些实施例中,在接收到的数据集之中识别文本字段输入列。例如,数据库表可以包括一个或多个文本字段输入字段,其包含可变或任意长度的文本输入。字段被识别为用于预测合期望的目标字段的潜在合格特征并且被评估为文本字段输入特征而不是标称类型。
在605处,针对数据集的所识别的特征确定影响得分。例如,针对每个识别的特征确定影响得分。在一些实施例中,影响得分是加权信息增益得分。在一些实施例中,非加权信息增益得分被用作替换的影响得分。在确定影响得分时,可以选择一对识别的特征,其中一个作为输入并且另一个作为目标。可以使用所选择的对来计算影响得分以计算加权信息增益得分。可以针对每个数据集的每个所识别的特征确定加权信息增益得分。在一些实施例中,使用关于图5的步骤503描述的技术来确定影响得分。在一些实施例中,影响得分是平均加权得分。例如,可以使用关于图7至图10的处理描述的技术来针对文本字段输入特征确定影响得分。
在607处,针对每个识别的特征建立比较模型。例如,使用每个所识别的特征来训练机器学习模型,并且创建对应的模型作为基线模型。在一些实施例中,基线模型是朴素模型。例如,基线模型可以是朴素的基于概率的分类器。在一些实施例中,基线模型可以通过总是预测最可能的结果、通过随机选择结果、或通过使用另外的适当的朴素分类技术来预测结果。经训练的模型和基线模型一起是用于所识别的特征的比较模型。经训练的模型是将所识别的特征用于预测的机器学习模型,并且基线模型表示其中特征不被用于预测的模型。
在609处,使用比较模型确定性能度量。通过针对每个识别的特征比较两个比较模型的预测结果和准确度,可以针对特征确定性能度量。例如,对于每个识别的特征而言,可以针对训练模型和基线模型来评估查准率-查全率曲线(AUPRC)下的面积。在一些实施例中,两个AUPRC结果之间的差异是特征的性能度量。例如,特征的性能度量可以被表达为比较模型之间AUPRC的增加。对于每个所识别的特征而言,性能度量与影响得分关联。例如,AUPRC上的增加与加权信息增益得分关联。
在611处,建立回归模型以预测性能度量。使用分别在605处和609处确定的影响得分和性能度量对,创建回归模型以从影响得分预测性能度量。例如,创建回归模型以预测作为特征的加权信息增益得分的函数的特征在查准率-查全率曲线(AUPRC)下的面积上的增加。在一些实施例中,回归模型是使用在605处和609处确定的影响得分和性能度量对作为训练数据来训练的机器学习模型。在各种实施例中,一旦确定了影响得分,经训练的模型可以被实时地应用以预测特征的性能度量。例如,经训练的模型可以在图5的步骤505处被应用以确定特征的性能度量以用于评估与特征关联的模型质量上的预期改进。
图7是图示用于自动识别和评估作为用于机器学习模型的潜在特征的文本字段的处理的实施例的流程图。例如,使用图7的处理,如果文本字段被用作用于预测合期望的目标字段的输入特征,则该文本字段可以被评估以确定预期的模型性能。在一些实施例中,图7的处理可以由图3的处理启动。例如,使用图3的处理,用户可以通过利用从潜在训练数据识别的推荐的文本字段特征来自动化机器学习模型的创建,以用于预测合期望的目标字段。使用图7的处理,所识别的文本字段被处理并且评估以用于作为特征的推荐。文本字段被评估为可变和/或任意长度的文本字段,而不是被转换成标称类型并且被评估为标称类型。类似地,在一些实施例中,图4的特征选择管线依赖于图7的处理来实时评估潜在文本字段特征将如何影响用于预测合期望的目标字段的机器学习模型。在一些实施例中,在图3的步骤303处使用图7的处理评估的文本字段被识别为潜在训练数据。在一些实施例中,图7的处理的各个步骤由图4的处理执行。例如,在一些实施例中,在图4的401处执行步骤701,在图4的403处执行步骤703,在图4的405处和/或407处执行步骤705,和/或在图4的409处执行步骤707。在一些实施例中,在图1的服务器121处和/或图2的203处的机器学习平台上执行图7的处理,以至少部分地确定推荐的输入特征。
在701处,接收文本字段列作为输入数据。例如,数据库表或数据集的文本字段列被用户识别为潜在的训练数据。一旦被识别,文本字段列就被作为可以被评估的输入数据接收。在一些实施例中,文本字段列包括对应于可变或任意长度的文本的条目。
在703处,将用于所接收的文本字段列的列数据类型识别为文本字段数据。例如,评估所接收的文本字段列的条目以确定列数据类型是文本字段数据。该评估步骤对于确定所接收的文本字段列的数据类型实际上是文本数据而不是诸如与文本数据兼容的标称类型的另外的类型可能是必需的。例如,在一些情形中,存储在文本字段列中的数据被存储为文本数据,但是诸如标称、整数、数字或另外的适当数据类型的另外的数据类型可以更准确地和/或高效地描述数据。在703处,将用于所接收的文本字段列的列数据类型确认为文本字段数据。
在705处,评估文本字段作为特征的合格度。例如,文本字段列被评估为用于预测合期望的目标字段的合格特征。在一些实施例中,首先评估文本字段以确定特征相关性得分,诸如在预测合期望的目标字段方面的影响得分。示例影响得分可以被计算为加权和归一化的过滤式选择得分。在一些实施例中,过滤式选择得分是ReliefFscore,其是根据特征值在彼此类似的实例当中区分目标的良好程度来指示特征相关性的统计度量。ReliefFscore的欧几里德范数/弗罗贝尼乌斯范数可以是根据文本特征维度计算的,并且被使用目标特征的分布归一化以得出加权和归一化的过滤式选择得分。使用所计算的特征相关性得分,可以确定性能度量。例如,可以通过将预训练的模型应用于所计算的影响得分来预测预期模型性能的对应度量。在一些实施例中,还评估文本数据的其它度量,诸如文本字段密度,并且在预测中对其进行利用。在一些实施例中,性能度量对应于文本字段的作为用于预测合期望的目标字段的特征的合格度。例如,预测的性能度量越高,文本字段越是合格的和/或越是被高度地推荐作为用于预测合期望的目标字段的特征。
在707处,针对评估的文本字段提供推荐。例如,使用所确定的合格度评估,关于在701处接收的文本字段进行推荐。在一些实施例中,推荐包括在其它潜在特征中对评估的文本字段进行排序。作为帮助用户在不同的潜在特征之间进行选择的有用指导,推荐可以包括当依赖于所评估的文本字段作为输入特征时在模型性能上的预期改进。在一些实施例中,可以仅在所确定的性能度量超过最小性能阈值的情况下推荐文本字段。在各种实施例中,用户可以利用所提供的推荐来选择用于自动创建机器学习模型的特征以预测合期望的目标字段。
图8是图示用于评估作为用于机器学习模型的特征的文本字段的合格度作以预测合期望的目标字段的处理的实施例的流程图。在一些实施例中,图8的处理评估作为潜在训练数据提供的文本字段数据,并且可以是实时地执行的。在一些实施例中,图8的处理是在图2的203处、图4的405处和/或407处、和/或图7的705处执行的。在一些实施例中,当评估文本字段时,图8的处理的各个步骤由图5的处理执行。例如,在一些实施例中,在图5的501处执行步骤803,在图5的503处执行步骤805,和/或在图5的505处和/或507处执行步骤807。在一些实施例中,在图1的服务器121处的机器学习平台上执行图8的处理。在一些实施例中,图8的处理的部分也被用于训练离线性能度量预测模型。例如,在一些实施例中,在图6的步骤605处利用在801处、803处和/或805处确定的影响得分和其它相关度量以用于训练离线性能度量预测模型。然后在807处利用预训练的模型以用于确定文本字段的对应的性能度量。
在801处,处理输入文本字段数据。例如,可以执行文本字段数据的处理和/或预处理,以准备计算影响得分所要求的中间数据。处理可以包括确定对文本数据的统计度量以及从文本数据准备多个评估样本。在一些实施例中,处理包括针对所提供的文本数据确定词频-逆文档频率(TF-IDF)度量和/或执行文本数据的投影以减少维度的数量。可以执行其它适当的处理,诸如确定文本字段密度。在各种实施例中,输入文本字段数据可以对应于指定的数据库表或数据集中的文本字段列的条目。
在803处,计算加权的过滤式选择得分。例如,使用在801处准备的中间数据,针对文本字段计算加权的过滤式选择得分。在一些实施例中,加权的过滤式选择得分是归一化的过滤式选择得分。每个计算的加权过滤式选择得分可以对应于输入数据的分层样本集。通过对输入数据的多个样本计算加权过滤式选择得分,与对整个输入文本字段数据计算加权过滤式选择得分相比,可以以最小的资源要求对数据适当地进行采样。例如,在一些情形下,在801处准备三个分层样本,并且在803处计算三个加权过滤式选择得分,一个对应于每个准备的样本。
在805处,确定平均加权过滤式选择得分。例如,使用来自803的所计算的加权过滤式选择得分,计算平均加权过滤式选择得分。平均加权过滤式选择得分可以是归一化的过滤式选择得分并且可以对应于用于文本字段的影响得分。在一些实施例中,影响得分的大小对应于文本字段在预测合期望的目标字段方面具有多少影响。虽然影响得分表达特征在预测合期望的目标字段中的相关性,但是如果文本字段被用作用于机器学习模型的输入特征,则其可能不量化在模型性能上的改进。在一些实施例中,所确定的平均加权过滤式选择得分和任何其它适当的文本字段度量(诸如在801处计算的文本字段密度)被用于训练离线性能度量预测模型。
在807处,确定用于文本字段的性能度量。例如,使用所确定的平均加权过滤式选择得分和任何附加的文本字段度量,诸如文本字段密度,可以预测性能度量。在一些实施例中,通过应用预训练的模型(诸如使用图6的处理离线训练的模型)来推断性能度量。通过利用预训练的模型,可以实时地确定预期模型性能的度量。在性能度量预测模型的训练期间,替代地离线执行重要的计算和资源密集操作。在各种实施例中,所确定的性能度量可以对应于文本字段特征的查准率-查全率曲线(AUPRC)下的面积上的增加。该增加可以对应于使用类似文本字段作为用于预测的特征的训练模型与利用适当的朴素分类技术(诸如总是预测最可能的结果)的基线模型之间的差异。所确定的性能度量提供与没有利用文本字段特征的机器学习模型相比对于利用文本字段特征的经训练的模型而言可以预期的性能上的增加的指示。在一些实施例中,性能度量被用于确定针对作为用于预测合期望的目标字段的潜在的或合格的特征的文本字段的推荐。
图9是图示用于准备输入文本字段数据以确定影响得分的处理的实施例的流程图。在一些实施例中,图9的处理在图4的405处和/或图8的801处执行,并且在用于确定文本字段对模型性能的影响得分或特征相关性的计算之前。在一些实施例中,图9的处理在图1的服务器121处的机器学习平台上执行。在一些实施例中,图9的处理的部分也被用于训练离线性能度量预测模型。例如,在一些实施例中,图9的处理被与附加步骤一起执行,以在图6的步骤605处确定用于文本字段的影响得分。
在901处,针对文本输入数据评估信息度量。例如,确定对于文本输入数据的信息度量,诸如统计度量。信息度量是实时计算的,并且可以包括诸如词频-逆文档频率(TF-IDF)度量的度量。作为另一示例,可以针对文本输入数据计算诸如文本字段密度的信息度量。在一些实施例中,可以使用文本输入数据的样本或通过评估文本输入数据的整个数据集来确定信息度量。在各种实施例中,文本输入数据可以对应于在指定的数据库表或数据集中的文本字段列的条目。
在903处,对评估的输入数据执行随机投影。例如,针对具有高的维度数的大的数据集,执行随机投影以减少维度数。在一些实施例中,维度数可以被减少到更高效的数量,诸如100个维度。
在905处,创建输入样本数据集。例如,创建文本输入数据的一个或多个样本以用于评估。在一些实施例中,文本输入数据太大而不高效地计算对整个数据集的单个影响得分。替代地,创建多个样本数据集。每个可以被针对影响而评分,并且然后对样本影响得分取平均。在各种实施例中,应用分层采样以创建多个样本数据集。所创建的数据集可以包括文本输入数据的充分采样。例如,在一些实施例中,所创建的数据集覆盖近似10%的文本输入数据。
图10是图示用于确定用于文本字段特征的性能度量的处理的实施例的流程图。在一些实施例中,图10的处理在图5的505处、图7的705处和/或图8的807处执行。在一些实施例中,由图10的处理利用的影响得分和附加的信息度量是使用图8和/或图9的处理计算的。在一些实施例中,图10的处理是在图1的服务器121处的机器学习平台上执行的。
在1001处,接收用于文本字段的影响得分。例如,接收针对文本字段的影响得分,诸如平均加权过滤式选择得分。影响得分可以是在使用文本字段作为模型特征时预测合期望的目标字段中的特征相关性的度量。在一些实施例中,所接收的影响得分是实时地计算的,并且可以是对文本字段的输入文本数据的一个或多个样本集计算的。在各种实施例中,文本字段及其输入文本数据可以对应于在指定的数据库表或数据集中的文本字段列的条目。
在1003处,接收用于文本字段的附加的度量。例如,诸如文本字段密度的附加的度量被接收并且准备用作输入特征。在一些实施例中,与仅依赖于计算的影响得分相比,使用附加的度量作为用于预测性能度量的输入特征改进了预测结果。在各种实施例中,附加的度量可以是实时计算的并且可以是对文本字段的输入文本数据的一个或多个样本集或者对整个文本字段数据集计算的。
在1005处,应用预测模型以确定用于文本字段的性能度量。例如,性能度量预测模型是离线训练的并且被在1005处应用以预测预期模型性能的度量。在各种实施例中,用于预测模型的输入特征包括在1001处接收的影响得分和在1003处接收的一个或多个信息度量。这些接收的输入特征可以是与所推断的性能度量一起实时地计算的。相反,预测模型的生成可能是资源和计算上昂贵的,并且例如通过使用图6的处理而受益于离线训练。在一些实施例中,当比较两个比较模型时,预测的性能度量对应于文本字段特征的查准率-查全率曲线(AUPRC)下的面积上的增加。例如,度量可以对应于使用类似的文本字段作为用于预测的特征的经训练的模型与利用适当的朴素分类技术(诸如总是预测最可能的结果)的基线模型之间的性能差异。预测的性能度量提供与没有利用文本字段特征的机器学习模型相比对于利用文本字段特征的经训练的模型而言可以预期的性能上的增加的指示。在一些实施例中,性能度量被用于确定针对作为用于预测合期望的目标字段的潜在的或合格的特征的文本字段的推荐。
虽然为了清楚理解的目的已经在一些细节上描述了前述实施例,但是本发明不限制于所提供的细节。存在许多实现本发明的替换方法。所公开的实施例是说明性的而不是限制性的。
Claims (20)
1.一种方法,包括:
生成预训练模型,其被训练以至少部分地基于与文本字段数据类型关联的特征相关性得分来预测预期的模型性能的度量;
接收对用于机器学习预测的合期望的目标字段的指定和存储输入内容的一个或多个文本字段;
针对存储输入内容的所述一个或多个文本字段中的每个计算对应的特征相关性得分;
基于对应的所计算的特征相关性得分,使用预训练模型来预测针对存储输入内容的所述一个或多个文本字段中的每个的预期模型性能的对应度量;以及
将所预测的预期模型性能的度量提供用于在存储输入内容的所述一个或多个文本字段之中的特征选择中使用,以用于生成机器学习模型以预测合期望的目标字段。
2.根据权利要求1所述的方法,其中针对存储输入内容的所述一个或多个文本字段中的每个计算对应的特征相关性得分包括针对所述一个或多个文本字段中的每个确定统计度量。
3.根据权利要求2所述的方法,其中统计度量至少部分地基于词频-逆文档频率(TF-IDF)度量。
4.根据权利要求1所述的方法,其中针对存储输入内容的所述一个或多个文本字段中的每个计算对应的特征相关性得分包括生成存储输入内容的所述一个或多个文本字段中的每个文本字段的一个或多个样本数据集。
5.根据权利要求4所述的方法,其中存储输入内容的所述一个或多个文本字段中的每个文本字段的一个或多个生成的样本数据集是分层样本。
6.根据权利要求4所述的方法,进一步包括针对所述一个或多个生成的样本数据集中的每个计算相关性得分。
7.根据权利要求1所述的方法,其中针对所述一个或多个文本字段中的每个计算对应的特征相关性得分包括针对所述一个或多个文本字段中的每个对一个或多个采样的相关性得分取平均。
8.根据权利要求1所述的方法,其中使用预训练模型来预测针对存储输入内容的所述一个或多个文本字段中的每个的预期模型性能的对应度量包括将预训练模型应用于针对所述一个或多个文本字段中的每个的一个或多个信息度量。
9.根据权利要求8所述的方法,其中所述一个或多个信息度量包括文本字段密度度量。
10.根据权利要求1所述的方法,其中针对存储输入内容的所述一个或多个文本字段中的每个的所计算的特征相关性得分是加权并且归一化的过滤式选择得分。
11.根据权利要求1所述的方法,其中针对存储输入内容的所述一个或多个文本字段中的每个的预期模型性能的对应度量基于与基线模型相比与机器学习模型关联的查准率-查全率曲线下的面积的增加量,以预测合期望的目标字段。
12.根据权利要求1所述的方法,进一步包括基于所预测的预期模型性能的度量来对存储输入内容的所述一个或多个文本字段进行排序,以用于在用于生成机器学习模型的特征选择中使用以预测合期望的目标字段。
13.根据权利要求1所述的方法,其中存储输入内容的所述一个或多个文本字段包括从输入文本字段、电子邮件主题、电子邮件主体或聊天对话收集的文本。
14.一种系统,包括:
一个或多个处理器;以及
耦合到所述一个或多个处理器的存储器,其中存储器被配置为向所述一个或多个处理器提供指令,指令在被执行时引起所述一个或多个处理器:
生成预训练模型,其被训练以至少部分地基于与文本字段数据类型关联的特征相关性得分来预测预期的模型性能的度量;
接收对用于机器学习预测的合期望的目标字段的指定和存储输入内容的一个或多个文本字段;
针对存储输入内容的所述一个或多个文本字段中的每个计算对应的特征相关性得分;
基于对应的所计算的特征相关性得分,使用预训练模型来预测针对存储输入内容的所述一个或多个文本字段中的每个的预期模型性能的对应度量;以及
将所预测的预期模型性能的度量提供用于在存储输入内容的所述一个或多个文本字段之中的特征选择中使用,以用于生成机器学习模型以预测合期望的目标字段。
15.根据权利要求14所述的系统,其中引起所述一个或多个处理器针对存储输入内容的所述一个或多个文本字段中的每个计算对应的特征相关性得分包括引起所述一个或多个处理器针对所述一个或多个文本字段中的每个确定统计度量,并且其中统计度量至少部分地基于词频-逆文档频率(TF-IDF)度量。
16.根据权利要求14所述的系统,其中存储器被进一步配置为向所述一个或多个处理器提供指令,指令在被执行时引起所述一个或多个处理器:
生成存储输入内容的所述一个或多个文本字段中的每个文本字段的一个或多个样本数据集;
针对一个或多个生成的样本数据集中的每个确定采样的相关性得分;以及
针对所述一个或多个文本字段中的每个,对一个或多个确定的采样的相关性得分取平均。
17.根据权利要求14所述的系统,其中引起所述一个或多个处理器使用预训练模型来预测针对存储输入内容的所述一个或多个文本字段中的每个的预期模型性能的对应度量包括引起所述一个或多个处理器将预训练模型应用于针对所述一个或多个文本字段中的每个的一个或多个信息度量,并且其中所述一个或多个信息度量包括文本字段密度度量。
18.根据权利要求14所述的系统,其中针对存储输入内容的所述一个或多个文本字段中的每个的所计算的特征相关性得分是加权并且归一化的过滤式选择得分。
19.根据权利要求14所述的系统,其中针对存储输入内容的所述一个或多个文本字段中的每个的预期模型性能的对应度量基于与基线模型相比与机器学习模型关联的查准率-查全率曲线下的面积的增加量,以预测合期望的目标字段。
20.一种计算机程序产品,所述计算机程序产品被体现在非暂态计算机可读介质中并且包括用于如下的计算机指令:
生成预训练模型,其被训练以至少部分地基于与文本字段数据类型关联的特征相关性得分来预测预期的模型性能的度量;
接收对用于机器学习预测的合期望的目标字段的指定和存储输入内容的一个或多个文本字段;
针对存储输入内容的所述一个或多个文本字段中的每个计算对应的特征相关性得分;
基于对应的所计算的特征相关性得分,使用预训练模型来预测针对存储输入内容的所述一个或多个文本字段中的每个的预期模型性能的对应度量;以及
将所预测的预期模型性能的度量提供用于在存储输入内容的所述一个或多个文本字段之中的特征选择中使用,以用于生成机器学习模型以预测合期望的目标字段。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/931906 | 2020-07-17 | ||
US16/931,906 US20220019936A1 (en) | 2020-07-17 | 2020-07-17 | Machine learning feature recommendation |
US17/330,073 US20220019918A1 (en) | 2020-07-17 | 2021-05-25 | Machine learning feature recommendation |
US17/330073 | 2021-05-25 | ||
PCT/US2021/041153 WO2022015602A2 (en) | 2020-07-17 | 2021-07-09 | Machine learning feature recommendation |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115968478A true CN115968478A (zh) | 2023-04-14 |
Family
ID=79292667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180049470.5A Pending CN115968478A (zh) | 2020-07-17 | 2021-07-09 | 机器学习特征推荐 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220019918A1 (zh) |
JP (1) | JP2023534475A (zh) |
CN (1) | CN115968478A (zh) |
WO (1) | WO2022015602A2 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240037584A1 (en) * | 2022-07-27 | 2024-02-01 | Truist Bank | Automatically adjusting system activities based on trained machine learning model |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7921068B2 (en) * | 1998-05-01 | 2011-04-05 | Health Discovery Corporation | Data mining platform for knowledge discovery from heterogeneous data types and/or heterogeneous data sources |
US7069264B2 (en) * | 1999-12-08 | 2006-06-27 | Ncr Corp. | Stratified sampling of data in a database system |
US7613589B2 (en) * | 2005-07-27 | 2009-11-03 | The Mathworks, Inc. | Measuring productivity and quality in model-based design |
US8301616B2 (en) * | 2006-07-14 | 2012-10-30 | Yahoo! Inc. | Search equalizer |
JP6444494B2 (ja) * | 2014-05-23 | 2018-12-26 | データロボット, インコーポレイテッド | 予測データ分析のためのシステムおよび技術 |
US10515424B2 (en) * | 2016-02-12 | 2019-12-24 | Microsoft Technology Licensing, Llc | Machine learned query generation on inverted indices |
US10593177B2 (en) * | 2016-03-16 | 2020-03-17 | Sensormatic Electronics, LLC | Method and apparatus for tiered analytics in a multi-sensor environment |
US20170300862A1 (en) * | 2016-04-14 | 2017-10-19 | Linkedln Corporation | Machine learning algorithm for classifying companies into industries |
US10394871B2 (en) * | 2016-10-18 | 2019-08-27 | Hartford Fire Insurance Company | System to predict future performance characteristic for an electronic record |
US10691491B2 (en) * | 2016-10-19 | 2020-06-23 | Nutanix, Inc. | Adapting a pre-trained distributed resource predictive model to a target distributed computing environment |
US11144845B2 (en) * | 2017-06-02 | 2021-10-12 | Stitch Fix, Inc. | Using artificial intelligence to design a product |
US11361243B2 (en) * | 2017-06-07 | 2022-06-14 | Accenture Global Solutions Limited | Recommending machine learning techniques, features, and feature relevance scores |
US10990901B2 (en) * | 2017-11-13 | 2021-04-27 | Accenture Global Solutions Limited | Training, validating, and monitoring artificial intelligence and machine learning models |
US10978179B2 (en) * | 2018-03-28 | 2021-04-13 | International Business Machines Corporation | Monitoring clinical research performance |
US10430946B1 (en) * | 2019-03-14 | 2019-10-01 | Inception Institute of Artificial Intelligence, Ltd. | Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques |
US11468364B2 (en) * | 2019-09-09 | 2022-10-11 | Humana Inc. | Determining impact of features on individual prediction of machine learning based models |
US11526754B2 (en) * | 2020-02-07 | 2022-12-13 | Kyndryl, Inc. | Feature generation for asset classification |
WO2021252734A1 (en) * | 2020-06-11 | 2021-12-16 | DataRobot, Inc. | Systems and methods for managing machine learning models |
-
2021
- 2021-05-25 US US17/330,073 patent/US20220019918A1/en active Pending
- 2021-07-09 WO PCT/US2021/041153 patent/WO2022015602A2/en active Application Filing
- 2021-07-09 JP JP2023502919A patent/JP2023534475A/ja active Pending
- 2021-07-09 CN CN202180049470.5A patent/CN115968478A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022015602A2 (en) | 2022-01-20 |
WO2022015602A3 (en) | 2022-11-24 |
JP2023534475A (ja) | 2023-08-09 |
US20220019918A1 (en) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115812209A (zh) | 机器学习特征推荐 | |
CN109829629B (zh) | 风险分析报告的生成方法、装置、计算机设备和存储介质 | |
US9449281B2 (en) | Statistical machine learning | |
US9390142B2 (en) | Guided predictive analysis with the use of templates | |
CN112889042A (zh) | 机器学习中超参数的识别与应用 | |
US20210103858A1 (en) | Method and system for model auto-selection using an ensemble of machine learning models | |
CN109189990B (zh) | 一种搜索词的生成方法、装置及电子设备 | |
US11720808B2 (en) | Feature removal framework to streamline machine learning | |
US10963802B1 (en) | Distributed decision variable tuning system for machine learning | |
CN117668205B (zh) | 智慧物流客服处理方法、系统、设备及存储介质 | |
CN113256383B (zh) | 保险产品的推荐方法、装置、电子设备及存储介质 | |
US20210357699A1 (en) | Data quality assessment for data analytics | |
KR102195629B1 (ko) | 인공지능 학습데이터 생성을 위한 크라우드소싱 기반 프로젝트에서의 작업 능력 지수에 기반한 작업자 선정 방법 | |
US20200250623A1 (en) | Systems and techniques to quantify strength of a relationship with an enterprise | |
US20210365471A1 (en) | Generating insights based on numeric and categorical data | |
CN115968478A (zh) | 机器学习特征推荐 | |
US11803464B2 (en) | System for automatic identification and selection of optimization metrics and accompanying models in experimentation platforms | |
Kuznietsova et al. | Business intelligence techniques for missing data imputation | |
US12039267B2 (en) | Automated categorization of data by generating unity and reliability metrics | |
McElroy et al. | Variable targeting and reduction in large vector autoregressions with applications to workforce indicators | |
CN116304325A (zh) | 应用软件的功能推荐方法、推荐装置、设备及存储介质 | |
CN117575723A (zh) | 产品推荐方法及装置 | |
CN118710229A (zh) | 一种基于招聘者活跃度的职位推荐方法、装置及电子设备 | |
Eghbali et al. | Service Composition and Customization of Its Features based on Combined Classification | |
Кузнєцова et al. | Business Intelligence Techniques for Missing Data Imputations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |