CN116569189A - 被配置为在机器学习模型中实现动态离群值偏倚减少的基于计算机的系统、计算组件和计算对象 - Google Patents
被配置为在机器学习模型中实现动态离群值偏倚减少的基于计算机的系统、计算组件和计算对象 Download PDFInfo
- Publication number
- CN116569189A CN116569189A CN202180074814.8A CN202180074814A CN116569189A CN 116569189 A CN116569189 A CN 116569189A CN 202180074814 A CN202180074814 A CN 202180074814A CN 116569189 A CN116569189 A CN 116569189A
- Authority
- CN
- China
- Prior art keywords
- model
- machine learning
- outlier
- learning model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 285
- 230000009467 reduction Effects 0.000 title description 37
- 238000012549 training Methods 0.000 claims abstract description 253
- 238000000034 method Methods 0.000 claims abstract description 149
- 239000013598 vector Substances 0.000 claims abstract description 71
- 238000012550 audit Methods 0.000 claims abstract description 18
- 238000004458 analytical method Methods 0.000 claims description 78
- 238000004519 manufacturing process Methods 0.000 claims description 38
- 230000000694 effects Effects 0.000 abstract description 111
- 238000012360 testing method Methods 0.000 description 95
- 230000006870 function Effects 0.000 description 77
- 230000008569 process Effects 0.000 description 43
- 238000004891 communication Methods 0.000 description 39
- 238000003860 storage Methods 0.000 description 37
- 238000007637 random forest analysis Methods 0.000 description 33
- 238000003066 decision tree Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 22
- 238000012417 linear regression Methods 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 19
- 230000010354 integration Effects 0.000 description 18
- 230000006872 improvement Effects 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 12
- 238000010248 power generation Methods 0.000 description 12
- 238000012804 iterative process Methods 0.000 description 11
- 238000009877 rendering Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000005457 optimization Methods 0.000 description 10
- 238000009826 distribution Methods 0.000 description 9
- 238000012821 model calculation Methods 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 8
- 238000012706 support-vector machine Methods 0.000 description 8
- 230000007423 decrease Effects 0.000 description 7
- 238000004088 simulation Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000006855 networking Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 239000000872 buffer Substances 0.000 description 5
- 238000013145 classification model Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000005553 drilling Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- 238000005265 energy consumption Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 244000299461 Theobroma cacao Species 0.000 description 2
- 235000009470 Theobroma cacao Nutrition 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003339 best practice Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013478 data encryption standard Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000007620 mathematical function Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001373 regressive effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000962514 Alosa chrysochloris Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 101100001674 Emericella variicolor andI gene Proteins 0.000 description 1
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 241000282376 Panthera tigris Species 0.000 description 1
- 102100035115 Testin Human genes 0.000 description 1
- 101710070533 Testin Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000004568 cement Substances 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000004138 cluster model Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000010881 fly ash Substances 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000002893 slag Substances 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000037351 starvation Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Operations Research (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
系统和方法包括处理器,用于接收用户活动的训练数据;接收偏倚标准;确定机器学习模型的模型参数集合,包括:(1)将机器学习模型应用于训练数据;(2)生成模型预测误差;(3)基于模型预测误差生成数据选择向量以识别非离群值目标变量;(4)利用数据选择向量生成非离群值数据集;(5)基于非离群值数据集确定更新的模型参数;以及(6)重复步骤(1)‑(5),直到满足审查性能终止标准;为离群值分类器机器学习模型训练分类器模型参数;将离群值分类器机器学习模型应用于活动相关数据以确定非离群值活动相关数据;以及将机器学习模型应用于非离群值活动相关数据以预测用户活动的未来活动相关属性。
Description
相关申请的交叉引用
本申请要求于2020年9月18日提交的美国专利申请号17/025,889的优先权,该申请要求于2019年9月18日提交的标题为“COMPUTER-BASED SYSTEMS,COMPUTING COMPONENTSAND COMPUTING OBJECTS CONFIGURED TO IMPLEMENT DYNAMIC OUTLIER BIAS REDUCTIONIN MACHINE LEARNING MODELS”的美国临时申请号62/902,074的优先权,其全部内容通过引用整体并入本文。
版权声明
本专利文件的部分公开内容包含受版权保护的材料。版权所有者不反对任何人对专利文件或专利公开内容进行传真复制,就像它出现在专利和商标局专利文件或记录中那样,但除此之外保留所有版权权利。以下通知适用于如下所述的软件和数据以及构成本文档的一部分的附图:Copyright,Hartford Steam Boiler Inspection and InsuranceCompany,All Rights Reserved。
技术领域
本公开一般而言涉及被配置为在机器学习模型中实现偏倚减少的改进的基于计算机的系统、计算组件和计算对象。
背景技术
机器学习模型可以包括一个或多个计算机或处理设备,以基于从样本/训练数据中学习到的模式和推断来形成预测或确定。样本/训练数据选择中的偏倚可以传播到机器学习模型的预测和确定中。
发明内容
本公开的实施例包括用于动态离群值偏倚减少的机器学习模型的方法。该方法包括由至少一个处理器接收表示至少一个用户活动的至少一个活动相关属性的目标变量的训练数据集;由至少一个处理器接收用于确定一个或多个离群值的至少一个偏倚标准;由至少一个处理器确定机器学习模型的模型参数集合,包括:(1)由至少一个处理器将具有初始模型参数集合的机器学习模型应用于训练数据集以确定模型预测值集合;(2)由至少一个处理器通过将模型预测值集合与训练数据集的对应实际值进行比较来生成数据元素误差的误差集合;
(3)由至少一个处理器至少部分地基于数据元素误差的误差集合和至少一个偏倚标准生成数据选择向量以识别非离群值目标变量;(4)由至少一个处理器在训练数据集上利用数据选择向量生成非离群值数据集;(5)由至少一个处理器基于非离群值数据集确定机器学习模型的更新的模型参数集合;以及(6)由至少一个处理器重复步骤(1)-(5)作为迭代,直到满足至少一个审查性能终止标准,从而获得机器学习模型的模型参数集合作为更新的模型参数,由此每次迭代使用更新的模型参数集合作为初始模型参数集合重新生成预测值集合、误差集合、数据选择向量和非离群值数据集;由至少一个处理器至少部分地基于训练数据集和数据选择向量训练离群值分类器机器学习模型的分类器模型参数集合以获得被配置为识别至少一个离群值数据元素的经训练的离群值分类器机器学习模型;由至少一个处理器将经训练的离群值分类器机器学习模型应用于至少一个用户活动的活动相关数据的数据集,以确定:i)活动相关数据的数据集中的离群值活动相关数据集合,以及ii)活动相关数据的数据集中的非离群值活动相关数据集合;以及由至少一个处理器将机器学习模型应用于非离群值活动相关数据元素集合,以预测与至少一个用户活动相关的未来活动相关属性。
本公开的实施例包括用于动态离群值偏倚减少的机器学习模型的系统。该系统包括与具有存储在其上的软件指令的非暂态计算机可读存储介质通信的至少一个处理器,其中软件指令在被执行时使至少一个处理器执行以下步骤:接收表示至少一个用户活动的至少一个活动相关属性的目标变量的训练数据集;接收用于确定一个或多个离群值的至少一个偏倚标准;确定机器学习模型的模型参数集合,包括:(1)将具有初始模型参数集合的机器学习模型应用于训练数据集以确定模型预测值集合;(2)通过将模型预测值集合与训练数据集的对应实际值进行比较,生成数据元素误差的误差集合;(3)至少部分地基于数据元素误差的误差集合和至少一个偏倚标准生成数据选择向量以识别非离群值目标变量;(4)在训练数据集上利用数据选择向量生成非离群值数据集;(5)基于非离群值数据集确定机器学习模型的更新的模型参数集合;以及(6)重复步骤(1)-(5)作为迭代,直到满足至少一个审查性能终止标准,从而获得机器学习模型的模型参数集合作为更新的模型参数,由此每次迭代使用更新的模型参数集合作为初始模型参数集合重新生成预测值集合、误差集合、数据选择向量和非离群值数据集;至少部分地基于训练数据集和数据选择向量来训练离群值分类器机器学习模型的分类器模型参数集合以获得被配置为识别至少一个离群值数据元素的经训练的离群值分类器机器学习模型;将经训练的离群值分类器机器学习模型应用于至少一个用户活动的活动相关数据的数据集,以确定:i)活动相关数据的数据集中的离群值活动相关数据集合,以及ii)活动相关数据的数据集中的非离群值活动相关数据集合;以及将机器学习模型应用于非离群值活动相关数据元素集合,以预测与至少一个用户活动相关的未来活动相关属性。
本公开的实施例的系统和方法还包括:由至少一个处理器将数据选择向量应用于训练数据集以确定离群值训练数据集;由至少一个处理器使用离群值训练数据集训练至少一个特定于离群值的机器学习模型的至少一个特定于离群值的模型参数以预测离群值数据值;以及由至少一个处理器利用特定于离群值的机器学习模型来预测离群值活动相关数据集的离群值活动相关数据值。
本公开的实施例的系统和方法还包括:由至少一个处理器使用训练数据集训练广义机器学习模型的广义模型参数以预测数据值;由至少一个处理器利用广义机器学习模型来预测离群值活动相关数据集的离群值活动相关数据值;以及由至少一个处理器利用广义机器学习模型来预测活动相关数据值。
本公开的实施例的系统和方法还包括:由至少一个处理器将数据选择向量应用于训练数据集以确定离群值训练数据集;由至少一个处理器使用离群值训练数据集训练特定于离群值的机器学习模型的特定于离群值的模型参数以预测离群值数据值;由至少一个处理器使用训练数据集训练广义机器学习模型的广义模型参数以预测数据值;由至少一个处理器利用特定于离群值的机器学习模型来预测离群值活动相关数据集的离群值活动相关数据值;以及由至少一个处理器利用特定于离群值的机器学习模型来预测活动相关数据值。
本公开的实施例的系统和方法还包括:由至少一个处理器使用训练数据集训练广义机器学习模型的广义模型参数以预测数据值;由至少一个处理器利用广义机器学习模型来预测活动相关数据集合的活动相关数据值;由至少一个处理器利用离群值分类器机器学习模型来识别活动相关数据值的离群值活动相关数据值;以及由至少一个处理器去除离群值活动相关数据值。
本公开的实施例的系统和方法,其中训练数据集包括作为混凝土成分和混凝土固化暴露的函数的混凝土抗压强度的至少一个活动相关属性。
本公开的实施例的系统和方法,其中训练数据集包括作为家庭环境条件和照明条件的函数的能量使用数据的至少一个活动相关属性。
本公开的实施例的系统和方法还包括:由至少一个处理器接收应用编程接口(API)请求以生成具有至少一个数据元素的预测;由至少一个处理器实例化至少一个云计算资源以调度机器学习模型的执行;由至少一个处理器根据执行的调度利用机器学习模型来预测至少一个数据元素的至少一个活动相关的数据元素值;以及由至少一个处理器将至少一个活动相关的数据元素值返回到与API请求相关联的计算设备。
本公开的实施例的系统和方法,其中训练数据集包括医学数据集的三维患者图像的至少一个活动相关属性;并且其中机器学习模型被配置为基于医学数据集预测包括两个或更多个基于物理的渲染参数的活动相关数据值。
本公开实施例的系统和方法,其中训练数据集包括电子机器命令的模拟控制结果的至少一个活动相关属性;并且其中机器学习模型被配置为预测包括用于电子机器的控制命令的活动相关数据值。
本公开的实施例的系统和方法还包括:由至少一个处理器将活动相关数据集合分成多个活动相关数据子集;由至少一个处理器为多个活动相关数据子集中的每个活动相关数据子集确定集成(ensemble)模型;其中机器学习模型包括模型的集成;其中每个集成模型包括来自模型的集成的模型的随机组合;由至少一个处理器单独利用每个集成模型来预测特定于集成的活动相关数据值;由至少一个处理器基于特定于集成的活动相关数据值和已知值确定每个集成模型的误差;以及由至少一个处理器基于最低误差选择性能最高的集成模型。
附图说明
可以参考附图进一步解释本公开的各种实施例,其中在几个视图中相同的结构用相同的数字表示。所示附图不一定按比例绘制,而是重点通常放在图示本公开的原理上。因此,本文公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为教导本领域技术人员以各种方式采用一个或多个说明性实施例的代表性基础。
图1-图14B示出了说明本公开的至少一些实施例的一些示例性方面的一个或多个示意性流程图、某些基于计算机的体系架构和/或各种专用图形用户界面的屏幕截图。
具体实施方式
本文公开了结合附图的本公开的各种详细实施例;但是,应该理解的是,所公开的实施例仅仅是说明性的。此外,结合本公开的各种实施例给出的每个示例旨在是说明性的,而不是限制性的。
在整个说明书中,除非上下文另外明确指出,否则以下术语具有本文明确关联的含义。本文使用的短语“在一个实施例中”和“在一些实施例中”不一定指相同的(一个或多个)实施例,但是可以是指相同的(一个或多个)实施例。此外,本文使用的短语“在另一个实施例中”和“在一些其它实施例中”不一定指不同的实施例,但是可以指不同的实施例。因此,如下所述,在不脱离本公开的范围或精神的情况下,可以容易地组合各种实施例。
术语“基于”不是排他的,并且允许基于未描述的附加因素,除非上下文另有明确规定。另外,在整个说明书中,“一”、“一个”和“该”的含义包括复数引用物。“在...中”的含义包括“在...中”和“在...上”。
应该理解的是,本文描述的各种实施例的至少一个方面/功能可以实时和/或动态地执行。如本文中所使用的,术语“实时”涉及当另一个事件/动作已经发生时可以在时间上瞬时或几乎瞬时地发生的事件/动作。例如,“实时处理”、“实时计算”和“实时执行”都与在发生相关物理处理(例如,用户与移动设备上的应用进行交互)的实际时间期间的计算的执行相关,以便可以将计算的结果用于引导物理处理。
如本文所使用的,术语“动态地”和术语“自动地”及其逻辑和/或语言相关和/或派生词表示某些事件和/或动作可以在没有任何人为干预的情况下触发和/或发生。在一些实施例中,根据本公开的事件和/或动作可以是实时的和/或基于以下各项中的至少一个的预定的周期性的:纳秒、几纳秒、毫秒、几毫秒、秒、几秒、分钟、几分钟、每小时、几小时、每天、几天、每周、每月等。
在一些实施例中,具有相关联设备的示例性发明性、特别编程的计算系统被配置为在分布式网络环境中操作,通过一个或多个合适的数据通信网络(例如,互联网、卫星等)相互通信,并利用一种或多种合适的数据通信协议/模式,诸如但不限于IPX/SPX、X.25、AX.25、AppleTalk(TM)、TCP/IP(例如,HTTP)、近场无线通信(NFC)、RFID、窄带物联网(NBIOT)、3G、4G、5G、GSM、GPRS、WiFi、WiMax、CDMA、卫星、ZigBee以及其它合适的通信模式。在一些实施例中,NFC可以表示短距离无线通信技术,其中启用NFC的设备被“滑动”、“碰撞”、“轻敲”或以其它方式移动到邻近以进行通信。
本文公开的材料可以用软件或固件或它们的组合,或者作为存储在可以由一个或多个处理器读取和执行的机器可读介质上的指令来实现。机器可读介质可以包括用于以机器(例如,计算设备)可读的形式存储或传输信息的任何介质和/或机制。例如,机器可读介质可以包括只读存储器(ROM);随机存取存储器(RAM);磁盘存储介质;光学存储介质;闪存设备;电、光、声或其它形式的传播信号(例如,载波、红外信号、数字信号等)及其它。
如本文所使用的,术语“计算机引擎”和“引擎”识别被设计/编程/配置为管理/控制其它软件和/或硬件组件(诸如库、软件开发包(SDK)、对象等)的至少一个软件组件和/或至少一个软件组件和至少一个硬件组件的组合。
硬件元件的示例可以包括处理器、微处理器、电路、电路元件(例如,晶体管、电阻器、电容器、电感器等)、集成电路、专用集成电路(ASIC)、可编程逻辑设备(PLD)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、逻辑门、寄存器、半导体设备、芯片、微芯片、芯片集等等。在一些实施例中,一个或多个处理器可以被实现为复杂指令集计算机(CISC)或精简指令集计算机(RISC)处理器;x86指令集兼容处理器、多核或任何其它微处理器或中央处理单元(CPU)。在各种实施方式中,一个或多个处理器可以是(一个或多个)双核处理器、(一个或多个)双核移动处理器等等。
软件的示例可以包括软件组件、程序、应用、计算机程序、应用程序、系统程序、机器程序、操作系统软件、中间件、固件、软件模块、例程、子例程、函数、方法、过程、软件接口、应用程序接口(API)、指令集、计算代码、计算机代码、代码段、计算机代码段、字、值、符号或其任意组合。确定是否使用硬件元件和/或软件元件来实现实施例可以根据许多因素而变化,诸如期望的计算速率、功率水平、耐热性、处理周期预算、输入数据速率、输出数据速率、存储器资源,数据总线速度和其它设计或性能限制。
至少一个实施例的一个或多个方面可以通过存储在机器可读介质上的表示处理器内的各种逻辑的代表性指令来实现,该指令在由机器读取时,使机器制造逻辑以执行本文所描述的技术。这种被称为“IP核心”的表示可以存储在有形的机器可读介质上,并提供给各种客户或制造设施,以加载到产生逻辑或处理器的制造机器中。注意的是,本文描述的各种实施例当然可以使用任何适当的硬件和/或计算软件语言(例如,C++、Objective-C、Swift、Java、JavaScript、Python、Perl、QT等)来实现。
在一些实施例中,本公开的一个或多个示例性发明性的基于计算机的设备可以包括或部分或全部并入到至少一个个人计算机(PC)、膝上型计算机、超膝上型计算机、平板电脑、触摸板、便携式计算机、手持式计算机、掌上计算机、个人数字助理(PDA)、蜂窝电话、蜂窝电话/PDA组合、电视、智能设备(例如,智能电话、智能平板电脑或智能电视)、移动互联网设备(MID)、消息传送设备、数据通信设备,等等。
如本文所使用的,术语“服务器”应被理解为指代提供处理、数据库和通信设施的服务点。作为示例而非限制,术语“服务器”可以指具有相关联通信和数据存储和数据库设施的单个物理处理器,或者它可以指处理器和相关联网络和存储设备的联网或集群复合体,以及支持服务器提供的服务的操作软件和一个或多个数据库系统和应用软件。云服务器是示例。
在一些实施例中,如本文详述的,本公开的一个或多个示例性发明性的基于计算机的系统可以获得、操纵、传输、存储、变换、生成和/或输出可以是任何合适的形式,诸如但不限于文件、联系人、任务、电子邮件、推文、地图、整个应用(例如,计算器)等的任何数字对象和/或数据单元(例如,来自特定应用的内部和/或外部)。在一些实施例中,如本文详述的,本公开的一个或多个示例性发明性的基于计算机的系统可以跨各种计算机平台中的一个或多个实现,诸如但不限于:(1)AmigaOS,AmigaOS 4,(2)FreeBSD,NetBSD,OpenBSD,(3)Linux,(4)Microsoft Windows,(5)OpenVMS,(6)OS X(Mac OS),(7)OS/2,(8)Solaris,(9)Tru64 UNIX,(10)VM,(11)Android,(12)Bada,(13)BlackBerry OS,(14)Firefox OS,(15)iOS,(16)嵌入式Linux,(17)Palm OS,(18)Symbian,(19)Tizen,(20)WebOS,(21)WindowsMobile,(22)Windows Phone,(23)Adobe AIR,(24)Adobe Flash,(25)Adobe Shockwave,(26)无线二进制运行时环境(BREW),(27)Cocoa(API),(28)Cocoa Touch,(29)JavaPlatforms,(30)JavaFX,(31)JavaFX Mobile,(32)Microsoft XNA,(33)Mono,(34)MozillaPrism、XUL和XULRunner,(35).NET Framework,(36)Silverlight,(37)Open Web平台,(38)Oracle数据库,(39)Qt,(40)SAP NetWeaver,(41)Smartface,(42)Vexi和(43)WindowsRuntime。
在一些实施例中,本公开的示例性发明性的基于计算机的系统和/或示例性发明性的基于计算机的设备可以被配置为利用硬连线电路系统,该硬连线电路系统可以用于代替软件指令或与软件指令组合使用以实现与本公开的原理一致的特征。因此,与本公开的原理一致的实现不限于硬件电路系统和软件的任何特定组合。例如,各种实施例可以以许多不同的方式实施为软件组件,诸如但不限于独立软件包、软件包的组合,或者它可以是作为“工具”并入到更大的软件产品中的软件包。
例如,根据本公开的一个或多个原理特别编程的示例性软件可以作为独立产品或作为用于安装在现有软件应用中的插件包从网络(例如,网站)下载。例如,根据本公开的一个或多个原理特别编程的示例性软件也可以作为客户端-服务器软件应用或作为启用web的软件应用可用。例如,根据本公开的一个或多个原理特别编程的示例性软件也可以实施为安装在硬件设备上的软件包。
在一些实施例中,本公开的示例性发明性的基于计算机的系统/平台、示例性发明性的基于计算机的设备和/或示例性发明性的基于计算机的组件可以被配置为处理多个并发用户,这些并发用户可以是但不限于,至少100个(例如,但不限于100-999个)、至少1,000个(例如,但不限于1,000-9,999个)、至少10,000个(例如,但不限于,10,000-99,999个)、至少100,000个(例如,但不限于100,000-999,999个)、至少1,000,000个(例如,但不限于1,000,000-9,999,999个)、至少10,000,000个(例如,但不限于,10,000,000-99,999,999个)、至少100,000,000个(例如,但不限于100,000,000-999,999,999个)、至少1,000,000,000个(例如,但不限于1,000,000,000-10,000,000个)。
在一些实施例中,本公开的示例性发明性的基于计算机的系统和/或示例性发明性的基于计算机的设备可以被配置为输出到本公开的不同的、特别编程的图形用户界面实施方式(例如,桌面、web应用等)。在本公开的各种实施方式中,最终输出可以显示在显示屏幕上,该显示屏幕可以是但不限于计算机的屏幕、移动设备的屏幕等。在各种实施方式中,显示器可以是全息显示器。在各种实施方式中,显示器可以是可以接收视觉投影的透明表面。这样的投影可以传达各种形式的信息、图像和/或对象。例如,这样的投影可以是移动增强现实(MAR)应用的视觉覆盖。
如本文所使用的,术语“云”、“互联网云”、“云计算”、“云体系架构”和类似术语对应于以下至少一个:(1)通过实时通信网络(例如,互联网)连接的大量计算机;(2)提供在多个连接的计算机(例如,物理机器、虚拟机(VM))上同时运行程序或应用的能力;(3)基于网络的服务,其看起来由真实服务器硬件提供,并且实际上由虚拟硬件(例如,虚拟服务器)提供服务,由运行在一个或多个真实机器上的软件模拟(例如,从而允许在不影响最终用户的情况下即时到处移动和放大(或缩小))。
在一些实施例中,本公开的示例性发明性的基于计算机的系统和/或示例性发明性的基于计算机的设备可以被配置为通过利用一种或多种加密技术(例如,私钥/公钥对,三重数据加密标准(3DES),分组密码算法(例如,IDEA、RC2、RC5、CAST和Skipjack)、密码散列算法(例如,MD5、RIPEMD-160、RTR0、SHA-1、SHA-2、Tiger(TTH)、WHIRLPOOL、RNGs)安全地存储和/或传输数据。
当然,上述示例是说明性的而非限制性的。
如本文所使用的,术语“用户”应具有至少一个用户的含义。在一些实施例中,术语“用户”、“订户”、“消费者”或“客户”应当被理解为是指如本文所述的一个或多个应用的用户和/或由数据提供者提供的数据的消费者。作为示例而非限制,术语“用户”或“订户”可以指在浏览器会话中通过互联网接收由数据或服务提供商提供的数据的人,或者可以指接收数据并存储或处理数据的自动化软件应用。
图1描绘了根据本公开的一个或多个实施例的用于机器学习中的偏倚减少的示例性基于计算机的系统100的框图。但是,实践一个或多个实施例可能不需要所有这些组件,并且可以在不脱离本公开的各种实施例的精神或范围的情况下对组件的布置和类型进行变化。在一些实施例中,示例性发明性的计算设备和/或示例性基于计算机的系统100的示例性发明性的计算组件可以被配置为管理大量成员和/或并发事务,如本文详述的。在一些实施例中,示例性基于计算机的系统/平台100可以基于可扩展的计算机和/或网络体系架构,其并入了用于评估数据、高速缓存、搜索和/或数据库连接池的各种策略,包括如本文实施例中所述的动态离群值偏倚减少(DOBR)。可扩展体系架构的示例是能够操作多个服务器的体系架构。
在一些实施例中,参考图1,示例性基于计算机的系统100的成员102-104(例如,客户端)实际上可以包括能够通过网络(诸如网络105)向和从另一个计算设备(诸如服务器106和107)、彼此等接收和发送消息的任何计算设备(例如,云网络)。在一些实施例中,成员设备102-104可以是个人计算机、多处理器系统、基于微处理器的或可编程的消费者电子器件、网络PC等。在一些实施例中,成员设备102-104内的一个或多个成员设备可以包括通常使用诸如蜂窝电话、智能电话、寻呼机、步话机、射频(RF)设备、红外线(IR)设备、CB、结合一个或多个前述设备的集成设备、或几乎任何移动计算设备等无线通信介质连接的计算设备。在一些实施例中,成员设备102-104内的一个或多个成员设备可以是能够使用诸如PDA、POCKET PC、可穿戴计算机、膝上型电脑、平板电脑、台式计算机、上网本、视频游戏设备、寻呼机、智能电话、超移动个人计算机(UMPC)和/或配备为通过有线和/或无线通信介质(例如,NFC、RFID、NBIOT、3G、4G、5G、GSM、GPRS、WiFi、WiMax、CDMA、卫星、ZigBee等)进行通信的任何其它设备的有线或无线通信介质进行连接的设备。在一些实施例中,成员设备102-104内的一个或多个成员设备可以包括可以运行一个或多个应用,诸如互联网浏览器、移动应用、语音呼叫、视频游戏、视频会议和电子邮件等。在一些实施例中,成员设备102-104内的一个或多个成员设备可以被配置为接收和发送网页等。在一些实施例中,本公开的示例性特别编程的浏览器应用可以被配置为接收和显示图形、文本、多媒体等,几乎采用任何基于web的语言,包括但不限于标准通用标记语言(SMGL),诸如超文本标记语言(HTML)、无线应用协议(WAP)、手持设备标记语言(HDML),诸如无线标记语言(WML)、WMLScript、XML、JavaScript等。在一些实施例中,成员设备102-104内的成员设备可以由Java、.Net、QT、C、C++和/或其它合适的编程语言特别编程。在一些实施例中,成员设备102-104内的一个或多个成员设备可以被特别编程包括或执行应用以执行各种可能的任务,诸如但不限于消息传递功能、浏览、搜索、播放、流传输或显示各种形式的内容,包括本地存储或上传的消息、图像和/或视频和/或游戏。
在一些实施例中,示例性网络105可以向耦合到它的任何计算设备提供网络访问、数据传输和/或其它服务。在一些实施例中,示例性网络105可以包括并实现至少一种专用网络体系架构,该网络体系架构可以至少部分地基于由例如但不限于全球移动通信系统(GSM)协会、互联网工程任务组(IETF)和全球微波接入互操作性(WiMAX)论坛设定的一种或多种标准。在一些实施例中,示例性网络105可以实现GSM体系架构、通用分组无线电服务(GPRS)体系架构、通用移动电信系统(UMTS)体系架构以及被称为长期演进(LTE)的UMTS演进中的一个或多个。在一些实施例中,示例性网络105可以包括和实现由WiMAX论坛定义的WiMAX体系架构作为替代方案或与上述中的一个或多个相结合。在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性网络105还可以包括例如局域网(LAN)、广域网(WAN)、互联网、虚拟LAN(VLAN)、企业LAN、第3层虚拟专用网(VPN)、企业IP网络或其任意组合中的至少一个。在一些实施例中并且可选地结合上文或下文描述的任何实施例,通过示例性网络105的至少一个计算机网络通信可以至少部分地基于多种通信模式,诸如但不限于:NFC、RFID、窄带物联网(NBIOT)、ZigBee、3G、4G、5G、GSM、GPRS、WiFi、WiMax、CDMA、卫星及其任意组合中的一种进行传输。在一些实施例中,示例性网络105还可以包括大容量存储装置,诸如网络附加存储装置(NAS)、存储区域网络(SAN)、内容交付网络(CDN)或其它形式的计算机或机器可读介质。
在一些实施例中,示例性服务器106或示例性服务器107可以是运行网络操作系统的web服务器(或一系列服务器),其示例可以包括但不限于Microsoft Windows Server、Novell NetWare或Linux。在一些实施例中,示例性服务器106或示例性服务器107可以用于和/或提供云和/或网络计算。虽然未在图1中示出,但在一些实施例中,示例性服务器106或示例性服务器107可以连接到外部系统,例如电子邮件、SMS消息传递、文本消息传递、广告内容提供商等。示例性服务器106的任何特征也可以在示例性服务器107中实现,反之亦然。
在一些实施例中,示例性服务器106和107中的一个或多个可以被特别编程为在非限制性示例中执行为认证服务器、搜索服务器、电子邮件服务器、社交网络服务服务器、SMS服务器、IM服务器、MMS服务器、交换服务器、照片共享服务服务器、广告提供服务器、金融/银行相关服务服务器、旅行服务服务器或任何类似的适合成员计算设备101-104的用户的基于服务的服务器。
在一些实施例中并且可选地结合上文或下文描述的任何实施例,例如,一个或多个示例性计算成员设备102-104、示例性服务器106和/或示例性服务器107可以包括特别编程的软件模块,其可以被配置为使用脚本语言、远程过程调用、电子邮件、推文、短消息服务(SMS)、多媒体消息服务(MMS)、即时消息传递(IM)、互联网中继聊天(IRC)、mIRC、Jabber、应用编程接口、简单对象访问协议(SOAP)方法、通用对象请求代理体系架构(CORBA)、HTTP(超文本传输协议)、REST(代表性状态转移)或其任意组合发送、处理和接收信息。
图2描绘了根据本公开的一个或多个实施例的另一个示例性的基于计算机的系统/平台200的框图。但是,实践一个或多个实施例可能不需要所有这些组件,并且可以在不脱离本公开的各种实施例的精神或范围的情况下对组件的布置和类型进行变化。在一些实施例中,所示的成员计算设备202a、202b至202n中的每一个至少包括计算机可读介质,诸如耦合到处理器210或闪存的随机存取存储器(RAM)208。在一些实施例中,处理器210可以执行存储在存储器208中的计算机可执行程序指令。在一些实施例中,处理器210可以包括微处理器、ASIC和/或状态机。在一些实施例中,处理器210可以包括介质或可以与介质通信,介质例如是计算机可读介质,其存储指令,该指令在由处理器210执行时,可以使处理器210执行本文所描述的一个或多个步骤。在一些实施例中,计算机可读介质的示例可以包括但不限于能够为诸如客户端202a的处理器210之类的处理器提供计算机可读指令的电子、光学、磁性或其它存储或传输设备。在一些实施例中,合适介质的其它示例可以包括但不限于软盘、CD-ROM、DVD、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其它磁性介质,或计算机处理器可以从中读取指令的任何其它介质。此外,各种其它形式的计算机可读介质可以向计算机(包括路由器、专用或公共网络、或其它传输设备或信道)有线和无线地传输或携带指令。在一些实施例中,指令可以包括来自任何计算机编程语言(包括例如C、C++、Visual Basic、Java、Python、Perl、JavaScript等)的代码。
在一些实施例中,成员计算设备202a至202n还可以包括多个外部或内部设备,诸如鼠标、CD-ROM、DVD、物理或虚拟键盘、显示器或其它输入或输出设备。在一些实施例中,成员计算设备202a至202n(例如,客户端)的示例可以是连接到网络206的任何类型的基于处理器的平台,诸如但不限于,个人计算机、数字助理、个人数字助理、智能电话、寻呼机、数字平板电脑、膝上型计算机、互联网电器和其它基于处理器的设备。在一些实施例中,成员计算设备202a至202n可以根据本文详述的一个或多个原理/方法用一个或多个应用特别编程。在一些实施例中,成员计算设备202a至202n可以在能够支持浏览器或启用浏览器的应用的任何操作系统(诸如MicrosoftTM、WindowsTM和/或Linux)上运行。在一些实施例中,所示的成员计算设备202a至202n可以包括例如执行浏览器应用(诸如Microsoft公司的Internet ExplorerTM、Apple Computer公司的SafariTM、Mozilla Firefox和/或Opera)的个人计算机。在一些实施例中,通过成员计算客户端设备202a至202n,用户212a至212n可以通过示例性网络206彼此通信和/或与耦合到网络206的其它系统和/或设备通信。如图2中所示,示例性服务器设备204和213也可以耦合到网络206。在一些实施例中,一个或多个成员计算设备202a至202n可以是移动客户端。
在一些实施例中,示例性数据库207和215中的至少一个数据库可以是任何类型的数据库,包括由数据库管理系统(DBMS)管理的数据库。在一些实施例中,示例性DBMS管理的数据库可以被特别编程为控制相应数据库中数据的组织、存储、管理和/或检索到的引擎。在一些实施例中,示例性DBMS管理的数据库可以被特别编程为提供查询、备份和复制、实施规则、提供安全性、计算、执行更改和访问日志和/或自动化优化的能力。在一些实施例中,示例性DBMS管理的数据库可以选自Oracle数据库、IBM DB2、Adaptive ServerEnterprise、FileMaker、Microsoft Access、Microsoft SQL Server、MySQL、PostgreSQL和NoSQL实现。在一些实施例中,示例性DBMS管理的数据库可以被特别编程为根据本公开的特定数据库模型定义示例性DBMS中每个数据库的每个相应模式,该数据库模型可以包括分层模型、网络模型、关系模型、对象模型,或一些其它合适的组织,其可以产生一个或多个可应用的数据结构,包括字段、记录、文件和/或对象。在一些实施例中,示例性DBMS管理的数据库可以被特别编程为包括关于所存储的数据的元数据。
在一些实施例中,本公开的示例性发明性的基于计算机的系统/平台、示例性发明性的基于计算机的设备和/或示例性发明性的基于计算机的组件可以被特别配置为在云计算/体系架构中操作,诸如但不限于:基础设施即服务(IaaS)、平台即服务(PaaS)和/或软件即服务(SaaS)。图3和图4图示了云计算/(一个或多个)体系架构的示例性实施方式的示意图,其中本公开的示例性发明性的基于计算机的系统/平台、示例性发明性的基于计算机的设备和/或示例性发明性的基于计算机的组件可以被特别配置为操作。
在本发明的示例性的基于计算机的系统和/或设备的实施例中,动态离群值偏倚减少(DOBR)可以用于提高特别用于基准研究的广义线性模型的准确度和理解。但是,它是一种可以应用于具有一个或多个自变量和一个因变量的各种分析模型的方法。本公开以及其中的实施例说明了DOBR在提高机器学习模型预测的准确度方面的发明性应用。
在实施例中,DOBR不是预测模型。替代地,在实施例中,它是预测或解释模型的附加(add-on)方法,其可以提高模型预测的准确度。在实施例中,DOBR识别出的离群值基于数据提供的目标变量和模型计算值之间的差异。随着离群值被识别,基于预先确定的选择标准,离群值相关数据记录和模型产生的因变量从分析中去除。在永久去除这些记录后,可以继续进一步分析。但是,在示例性发明性系统和方法的其它实施例中,在每次模型迭代中,离群值识别处理包括整个数据集,使得所有记录都使用如由其计算参数定义的最后一次迭代的预测模型进行离群值审查。因而,本发明的示例性实施例通过例如在每次迭代中包括整个数据集以减少训练数据的选择偏倚的传播来减少机器学习模型中的偏倚。因此,可以更准确、更高效地训练和实现机器学习模型,以改善机器学习系统的操作。
图5图示了根据本公开的一个或多个实施例的机器学习中的示例性发明性偏倚减少系统的框图。
在一些实施例中,偏倚减少系统300可以包括用于在由例如机器学习引擎分析的数据集中的动态离群值偏倚减少(DOBR)的组件。在一些实施例中,DOBR提供了迭代处理来根据预定义标准去除离群值记录。这个条件是用户定义的误差接受值,以百分比表达。它是指用户愿意潜在地基于他们的见解和将在本讨论后面描述的其它分析结果在模型中接受多少误差。100%的值表示接受所有误差,并且在DOBR处理中不会去除任何记录。如果选择0%,那么去除所有记录。一般而言,对于工业应用,已观察到在80%到95%范围内的误差接受值。
在一些实施例中,用户可以与偏倚减少系统300交互,以经由用户输入设备308管理误差接受值,并经由显示设备312查看结果,以及使用显示设备312和用户输入设备308的其它用户交互行为。基于误差接受值,偏倚减少系统300可以分析接收到数据库310或与偏倚减少系统300通信的其它存储装置中的数据集311。偏倚减少系统300可以经由数据库310或其它存储设备接收数据集311,并使用一个或多个具有动态离群值偏倚减少的机器学习模型进行预测,以提高准确度和效率。
在一些实施例中,偏置减少系统300包括硬件和软件组件的组合,包括例如存储装置和存储器设备、高速缓存、缓冲器、总线、输入/输出(I/O)接口、处理器、控制器、联网和通信设备、操作系统、内核、设备驱动程序以及其它组件。在一些实施例中,处理器307与多个其它组件通信以实现其它组件的功能。在一些实施例中,每个组件在处理器307上调度用于执行组件功能的时间,但是在一些实施例中,每个组件被调度到处理器307的处理系统中的一个或多个处理器。在其它实施例中,每个组件都具有包含在其中的其自己的处理器。
在一些实施例中,偏倚减少系统300的组件可以包括例如与模型索引302和模型库303通信的DOBR引擎301、回归器参数库305、分类器参数库304和DOBR过滤器306,以及其它可能的组件。每个组件可以包括硬件和软件的组合以实现组件功能,诸如,例如,存储器和存储设备、处理设备、通信设备、输入/输出(I/O)接口、控制器、联网和通信设备、操作系统、内核、设备驱动程序、指令集以及其它组件。
在一些实施例中,DOBR引擎301包括用于实例化和执行机器学习模型的模型引擎。DOBR引擎301可以通过使用模型索引302来访问模型库303中用于实例化的模型。例如,模型库303可以包括机器学习模型的库,其可以被选择性地访问和实例化以供诸如DOBR引擎301之类的引擎使用。在一些实施例中,模型库303可以包括机器学习模型,诸如例如,支持向量机(SVM)、线性回归器、Lasso模型、决策树回归器、决策树分类器、随机森林回归器、随机森林分类器、K邻居回归器、K邻居分类器、梯度提升回归器、梯度提升分类器,以及其它可能的分类器和回归器。例如,模型库303可以根据以下示例伪代码1导入模型:
伪代码1
/>
但是,在一些实施例中,为了促进访问模型库303中的机器学习模型库,DOBR引擎301可以采用模型索引302,该模型索引302将每个模型索引到模型标识符以由DOBR引擎301作为函数使用。例如,包括例如线性回归、XGBoost回归、支持向量回归、Lasso、K邻居回归、装袋(Bagging)回归、梯度提升回归、随机森林回归、决策树回归以及其它回归模型和分类模型的模型可以通过数字标识符进行索引并用名称标记。例如,下面的伪代码2描绘了模型索引302使用的模型索引代码的示例。
伪代码2
预期模型库303和模型索引302的伪代码的其它实施例。在一些实施例中,软件指令被存储在相应模型库303或模型索引302的存储器内并且被缓冲在高速缓存中以提供给处理器307。在一些实施例中,DOBR引擎301可以通过经由通信和/或I/O设备访问或调用索引来利用模型索引302,使用该索引经由通信和/或I/O设备从模型库303作为函数调用模型。
在一些实施例中,为了促进由DOBR引擎301调用的模型的优化和定制,偏倚减少系统300可以将模型参数记录在例如存储器或存储装置中,诸如例如硬盘驱动器、固态状态驱动器、随机存取存储器(RAM)、闪存以及其它存储装置和存储器设备。例如,可以在回归器参数库305中记录和调整回归参数。因此,回归器参数库305可以包括配置有足够的存储器和带宽的存储和通信硬件,以例如实时地存储、调整和传送用于多个回归器的多个参数。例如,对于由DOBR引擎301实例化的每个回归机器学习模型,可以在回归器参数库305中初始化和更新相应参数。在一些实施例中,用户可以经由用户输入设备308建立初始参数集合。但是,在一些实施例中,初始参数集合可以是预定的或随机生成的。在实例化回归机器学习模型时,DOBR引擎301可以使如在模型索引302中识别出的模型与回归器参数库305中的参数集合相关。例如,DOBR引擎301可以根据例如与给定回归模型相关联的标识(ID)号调用参数集合。例如,回归器参数库305可以类似于下面的伪代码3识别每个回归模型的参数:
伪代码3
/>
/>
/>
类似地,在一些实施例中,分类器参数可以在分类器参数库304中被记录和调整。因此,分类器参数库304可以包括配置有足够的存储器和带宽的存储和通信硬件,以例如实时地存储、调整和传送用于多个回归器的多个参数。例如,对于由DOBR引擎301实例化的每个分类机器学习模型,可以在回归器参数库305中初始化和更新相应参数。在一些实施例中,用户可以经由用户输入设备308建立初始参数集合。但是,在一些实施例中,可以预先确定初始参数集合。在实例化回归机器学习模型时,DOBR引擎301可以使如在模型索引302中识别出的模型与回归器参数库305中的参数集合相关。例如,DOBR引擎301可以根据例如与给定回归模型相关联的标识(ID)号调用参数集合。例如,回归器参数库305可以类似于下面的伪代码4识别每个回归模型的参数:
伪代码4
在一些实施例中,通过经由模型索引302调用和接收来自模型库303的模型集合以及来自回归器参数库305和/或分类器参数库304的相应参数,DOBR引擎301可以将一个或更多实例化和初始化模型加载到例如DOBR引擎301的高速缓存或缓冲器中。在一些实施例中,然后可以将数据集311从数据库310加载到例如DOBR引擎301的相同或不同的高速缓存或缓冲器或其它存储设备中。处理器307或DOBR引擎301中的处理器然后可以执行每个模型以将数据集311变换成例如基于与活动相关的某些输入属性来表征活动的结果或参数的活动相关数据值的相应预测。例如,家庭和/或商业环境中的电器能源使用、各种应用和配方中的混凝土抗压强度、物体或图像识别、语音识别或其它机器学习应用。例如,DOBR引擎301可以基于历史能量使用、一年中的时间、一天中的时间、位置等因素的数据集311对电器能量使用进行建模。DOBR引擎301可以经由连接到DOBR引擎301的总线的模型索引302从模型库303调用回归器集合。然后,DOBR引擎301可以在连接到DOBR引擎301的总线的回归器参数库305中调用与用于电器能量使用估计的回归器相关联的参数文件或日志。DOBR引擎301然后可以利用处理器307基于模型和模型参数、时间和日期、位置或其它因素及其组合来预测未来能量消耗。
类似地,例如,DOBR引擎301可以基于混凝土材料、一年中的时间、一天中的时间、位置、湿度、固化时间、年龄等因素的数据集311对混凝土抗压强度进行建模。DOBR引擎301可以经由连接到DOBR引擎301的总线的模型索引302从模型库303调用回归器集合。DOBR引擎301然后可以在连接到DOBR引擎301的总线的回归器参数库305中调用与用于混凝土抗压强度估计的回归器相关联的参数文件或日志。DOBR引擎301然后可以利用处理器307基于特定混凝土配方、时间和日期、位置或其它因素及其组合的模型和模型参数来预测未来的混凝土抗压强度。
作为另一个示例,DOBR引擎301可能正在基于话语和真实转录以及其它因素的数据集311执行语音识别。DOBR引擎301可以基于连接到DOBR引擎301的总线的模型索引302从模型库303调用分类器集合。然后,DOBR引擎301可以在连接到DOBR引擎301的总线的分类器参数库304中调用与用于语音识别的分类器相关联的参数文件或日志。DOBR引擎301然后可以利用处理器307基于用于一个或多个话语集合的模型和模型参数来预测记录的语音数据的转录。
作为另一个示例,DOBR引擎301可以基于跨成像和/或可视化的多个渲染参数的设置的数据集311以及其它因素自动预测医学图像的渲染设置,如在本文为了所有目的通过引用整体并入的美国专利No.10,339,695中所描述的。DOBR引擎301可以经由连接到DOBR引擎301的总线的模型索引302从模型库303调用分类器集合。DOBR引擎301然后可以在连接到DOBR引擎301的总线的分类器参数库304中调用与用于渲染设置的分类器相关联的参数文件或日志。DOBR引擎301然后可以利用处理器307基于用于一个或多个医学数据集集合的模型和模型参数来预测渲染设置数据。
作为另一个示例,DOBR引擎301可以基于机器控制命令结果的数据集311和机器控制命令的模拟结果以及其它因素来执行机器的机器人控制,如在本文为了所有目的通过引用整体并入的美国专利No.10,317,854中所描述的。DOBR引擎301可以经由连接到DOBR引擎301的总线的模型索引302从模型库303调用回归模型集合。DOBR引擎301然后可以在连接到DOBR引擎301的总线的回归器参数库305中调用与用于机器人控制的回归模型相关联的参数文件或日志。DOBR引擎301然后可以利用处理器307基于用于控制命令集合、环境信息、传感器数据和/或命令的模拟的模型和模型参数来预测特定控制命令的成功或失败。
在一些实施例中,偏倚减少系统300可以在云环境中实现机器学习模型,例如,作为远程用户的云服务。此类云服务可以被设计为支持大量用户和各种算法和问题规模,包括上述那些,以及特定于用户用例的其它潜在模型、数据集和参数微调,如在本文为了所有目的通过引用整体并入的美国专利No.10,452,992中所描述的。在一个实施例中,可以由实现偏倚减少系统300的服务定义多个编程接口(诸如,应用编程接口(API)),其引导非专家用户相对快地开始使用机器学习最佳实践,使用户不必花费大量时间和精力来微调模型,或者学习高级统计或人工智能技术。例如,这些接口可以允许非专家依赖用于构建、训练和使用机器学习模型的过程的各个方面的默认设置或参数,其中默认值是从分类器参数库304和/或回归器参数库305中用于个体用户的类似模型的一个或多个参数集合中导出的。默认设置或参数可以用作经由DOBR引擎301和优化器306使用利用用户数据集的训练定制用户的机器学习模型的起点。同时,用户可以定制他们希望用于各种类型的机器学习任务的参数或设置,诸如输入记录处理、特征处理、模型构建、执行和评估。在至少一些实施例中,除了或代替使用实现各种类型机器学习任务的预定义库,云服务偏倚减少系统300可以例如通过向服务注册定制功能具有服务的可扩展内置能力。取决于实现此类定制模块或功能的客户端的业务需求或目标,这些模块在一些情况下可以与服务的其它用户共享,而在其它情况下,定制模块的使用可以仅限于其实现者/拥有者。
在一些实施例中,无论是作为云服务、本地或远程系统还是在任何其它系统体系架构中实现,偏倚减少系统300都可以包括模型库303中的模型,这些模型使得能够实现机器学习模型训练和实现的集成方法,如在本文为了所有目的通过引用整体并入的美国专利No.9,646,262中所描述的。这种方法对于使用电子活动数据的电子数据集进行数据分析的应用可能是有用的。在一些实施例中,数据库310可以包括一个或多个结构化或非结构化数据源。在某些实施例中,无监督学习模块被配置为例如在来自模型库303的模型集成中使用多种无监督学习技术将非结构化数据集组装成有组织的数据集。例如,无监督学习模块被配置为将非结构化数据集组装成有组织数据集的多个版本,而在某些实施例中,监督学习模块被配置为基于有组织的数据集的多个版本中的每个版本生成一个或多个机器学习集成,并在使用DOBR引擎301和优化器306训练每个集成中的每个模型之后,根据例如模型误差来确定哪个机器学习集成表现出最高的预测性能。
用于控制硬件以基于数据集311进行预测的DOBR引擎301指令的示例在下面的伪代码5中描绘:
伪代码5
/>
/>
/>
但是,在一些实施例中,数据集311中的离群值可能会降低所实现模型的准确度,从而增加训练迭代的次数。为了提高准确度和效率,DOBR引擎301可以包括DOBR过滤器301b以动态测试数据集中的数据点误差以确定离群值。因此,可以去除离群值以提供更准确或更具代表性的数据集311。在一些实施例中,DOBR过滤器301b可以提供迭代机制,用于去除服从预定义标准(例如,上述并且例如由用户经由用户输入设备308提供的用户定义的误差接受值)的离群值数据点。在一些实施例中,用户定义的误差接受值表达为百分比,其中,例如,100%的值表示所有误差都被接受并且过滤器301b不会去除任何数据点,而例如0%的值导致所有数据点都被去除。在一些实施例中,过滤器301b可以被配置为具有在例如大约80%和大约95%之间的范围内的误差接受值。例如,过滤器301b可以被配置为执行如下伪代码6中描绘的功能:
伪代码6
在一些实施例中,DOBR过滤器301b与优化器306结合工作,优化器306被配置为确定误差并优化回归器参数库305和分类器参数库304中每个模型的参数。因此,在一些实施例中,优化器306可以确定模型并将误差传送给DOBR引擎301的过滤器301b。因此,在一些实施例中,优化器306可以包括例如具有足够存储器容量和带宽的存储装置和/或存储器设备以及通信设备,以接收数据集311并对预测进行建模并确定例如离群值、收敛、误差、绝对值误差,以及其它误差度量。例如,优化器306可以被配置为执行如下伪代码7中描绘的功能:
伪代码7
在一些实施例中,偏倚减少系统300然后由于减少了否则会使预测产生偏倚的离群值,因此可以经由例如显示器312将机器学习模型预测、离群值分析、预测收敛以及由DOBR引擎产生的其它数据以更准确和高效的方式返回给用户301。
图6图示了根据本公开的一个或多个实施例的示例性发明性方法的流程图。
DOBR(诸如上述DOBR引擎301和过滤器301b)提供了迭代处理来根据预定义标准去除离群值记录。这个条件是用户定义的误差接受值,以百分比表达。它是指用户愿意潜在地基于他们的见解和将在本讨论后面描述的其它分析结果在模型中接受多少误差。100%的值表示接受所有误差,并且在DOBR处理中不会去除任何记录。如果选择0%,那么去除所有记录。一般而言,对于工业应用,已观察到在80%到95%范围内的误差接受值。
但是,在一些实施例中,还应该注意的是,如果数据集不包含离群值,那么DOBR不提供任何值。但在实际情况下,分析人员在使用数据集之前很少具备这些知识。如本讨论稍后将展示的,DOBR方法的实施例还可以确定表示模型离群值的数据集的百分比。此预分析步骤可以帮助设置正确的误差接受值或究竟是否存在离群值。
以下步骤概述了应用于完整数据集的基本DOBR方法。
预分析:在实施例中,首先我们选择误差接受标准,比如我们选择∝=80%。(如何从数据中确定该值将在解释DOBR方法后演示)。然后根据例如下面的等式1定义误差接受标准C(∝):
等式1 C(∝)=f(ypred,ytar),
其中∝是误差接受标准,C是误差接受标准的函数,f()是比较函数,y是数据记录的值,ypred是预测值,并且ytar是目标值。
其它函数关系可以用于设置C(α),但百分位函数是理解模型为何包含或排除某些数据记录的直观指南,诸如下面的等式2:
等式2
其中P∝是百分位函数,i是记录条目的索引,并且m是记录条目的数量。
由于DOBR过程是迭代的,因此在实施例中,我们还定义了收敛标准,在此讨论中该收敛标准被设置在0.5%。
在实施例中,给定数据集{x,ytar}404、解模型M408和误差接受标准∝424,可以实现DOBR以减少训练模型M408的偏倚。在一些实施例中,解模型408由模型引擎实现,包括例如处理设备和存储器和/或存储设备。根据实施例,示例性方法根据例如下面的等式3为将解模型M408应用于完整输入数据集{x,ytar}404的所有记录计算模型系数M(c)402和模型估计{ypred}410:
等式3 {ypred}0,M(c0)=M{x,ytar},
其中0表示初始状态,并且x是指输入记录。
然后,根据说明性实施例,总误差函数418根据例如下面的等式4计算初始模型总误差e0:
等式4 e0=||{ypred}0,{ytar}||,
其中e0是初始模型总误差,并且0表示初始值。
然后,根据说明性实施例,误差函数412根据例如下面的等式5计算模型误差:
等式5
其中E是预测的记录误差,并且k表示记录选择的迭代。
然后,根据说明性实施例,误差函数412根据例如下面的等式6计算新的数据记录选择向量{Ik}:
等式6
其中I是记录选择向量。
然后,根据说明性实施例,数据记录选择器414根据例如下面的等式7通过仅选择记录选择向量等于1的记录来计算要包括在模型计算中的非离群值数据记录:
等式7
其中in是索引,其引用包括DOBR的记录集合作为非离群值。
然后,根据说明性实施例,具有最新系数402的模型408根据例如下面的等式8从DOBR选择的数据记录416计算新的预测值420和模型系数402:
等式8
然后,根据说明性实施例,使用新模型系数的模型408为完整数据集计算新预测值420。该步骤再现了在正式步骤中为DOBR选择的记录计算预测值420,但在实践中,新模型可以根据例如下面的等式9仅应用于DOBR去除的记录:
等式9 {ypred}k+1=M{ck+F,x}.
然后,根据说明性实施例,总误差函数418根据例如下面的等式10计算模型总误差:
等式10
其中是目标输出。
然后,根据说明性实施例,收敛测试424根据例如下面的等式11测试模型收敛:
等式11
其中β是收敛标准422,诸如,例如0.5%。
在一些实施例中,如果例如百分比误差小于例如0.5%,那么收敛测试424可以终止迭代处理。否则,该处理可以返回到初始数据集404。然后可以执行上述每个步骤并且重新测试收敛标准422。重复该处理直到收敛测试424低于收敛标准424。
图7是图示根据本公开的一个或多个实施例的具有减小的偏倚的另一个示例性基于计算机的机器学习模型的模型误差和误差接受标准之间的关系的示例的图。
由于∝是DOBR的输入参数,并且模型结果可以基于所选择的值而变化,因此在实施例中,记录基于数据的过程以证明使用哪个值是重要的。在开发和应用DOBR的实践应用中,它的选择(尚)没有理论基础。但是,在实践中,模型误差与∝的关系图可能会产生其中减少离群值的明显影响的斜率变化。图1示出了根据本发明的实施例的与发电基准相关的非线性回归402计算的该图。
在实施例中,该曲线的一般形状是预先确定的,即它总是以∝=100%时的最大误差开始,并且当∝=0%时,模型误差为零。在图7中,注意曲线斜率在∝=85%附近变化。并且对于所有较小的∝值,斜率几乎是恒定的。斜率在这个点的变化表明模型的可变性在去除数据记录方面没有变化,或者换句话说,在这些误差接受水平上不存在离群值。高于∝=85%时,至少有两个斜率明显斜率变化,这表明某些数据集部分包含模型中未考虑的行为或现象。这种视觉测试可以帮助设置适当的误差接受水平,并且还可以确定究竟是否需要DOBR。如果图7中线的斜率没有变化,那么模型可以令人满意地解释观察到的数据的可变性。没有模型离群值并且不需要应用DOBR。
在将特定百分比的附加可变性添加到数据集的模拟研究中,类似图6的曲线示出了初始陡峭的斜率线,该斜率线在编程到模拟中的误差接受值附近与较小值斜率相交。但是,在实践中,当观察到离群值时,通常会逐渐过渡到恒定斜率,这表明不止一种类型的可变性在模型中没有被考虑。
计算适当的误差接受值是使用DOBR的必要部分,并且它还直观地示出了离群值对模型结果影响的量和严重程度。这个步骤记录了∝的选择,并且如果与离群值数据的模型预测值相比,离群值影响被判断为最小,那么可以证明不使用DOBR是合理的。
在一些实施例中,∝和模型误差与∝值可以用作用于识别特定场景的最佳性能模型或模型集成的度量。由于不同数据集的线性度可能不同,因此数据和模型的确切∝值可能会改变模型的性能。因此,作为误差接受水平的函数的模型误差可以用于通过具有指示对数据可变性的或多或少的容忍度的模型误差以便形成准确的预测来确定给定模型在多大程度上可以解释数据的可变性。例如,模型预测的精度和准确度可以通过选择例如对于高误差接受值表现出例如低模型误差的模型和/或模型参数以选择对离群值数据更容忍的模型来进行微调。
在一些实施例中,模型选择可以通过采用例如基于规则的编程和/或机器学习模型来根据模型误差和误差接受标准的平衡识别数据集的最佳执行模型来自动化。因此,可以自动选择模型来最佳地考虑数据集中的离群值。例如,可以针对一个或多个误差接受值跨模型比较模型误差,具有最低模型误差的模型被自动选择来生成预测。
因此,根据本公开的各方面的DOBR机器学习技术提供了更有效的模型训练,以及对单个数据集的数据和模型行为的改进的可见性。因此,在诸如人工智能、数据分析、商业智能以及其它领域,机器学习模型可以更有效且高效地对各种类型的数据进行试验。然后可以更高效地评估模型性能以确定应用和数据类型的最佳模型。例如,人工智能应用可以通过使用针对产生的智能类型的DOBR选择和训练的模型来改进。类似地,商业智能和数据分析,以及其它应用,诸如物理行为预测、内容推荐、资源使用预测、自然语言处理和其它机器学习应用,可以通过使用DOBR基于离群值特性和响应于离群值的模型误差来微调模型参数和选择模型进行改进。
图8是图示根据本公开的一个或多个实施例的具有减小的偏倚的另一个示例性基于计算机的机器学习模型的模型误差和误差接受标准之间的关系示例的图表。
作为数据集上的DOBR实施例的示例,我们使用从加州大学欧文分校(Universityof California-Irvine)的机器学习数据储存库下载的混凝土抗压强度数据集504。该数据集包含1030个观测值、记录或实例,具有8个自变量。前七项描述了混凝土成分,年龄以天为单位给出:水泥量、高效减水剂、高炉渣、粗骨料、粉煤灰、细骨料、水和年龄。
输出变量是以兆帕(MPa)为单位测量的混凝土抗压强度。作为比较,1MPa≈145psi。线性回归模型根据例如下面的等式12构建:
等式12
其中ai是由线性回归模型计算的系数,xi是8个变量的观测值,并且i是变量索引。
图8是通过运行线性回归模型504作为DOBR误差接受百分比∝从100%到60%的函数而构建的。从∝=100%到大约∝=95%,模型误差迅速下降,如回归506所示,然后作为α函数的误差减少以略低的速率下降,直到∝=85%。从这个点起,∝以恒定速率下降,如回归508所示。误差开始以恒定速率减小的点是模型计算中忽略了模型离群值影响的地方。在这种情况下,选择点是∝=85%。
在实施例中,DOBR然后被修改线性回归模型重新运行∝=92.5%以确定拟合非离群值数据的最佳模型。图9和图10显示了使用完整数据集512(图9)和DOBR版本(图10)的这些计算的结果,在DOBR版本中,离群值被识别并从计算中去除。用红叉标记的离群值516是从非离群值模型计算的。这两个图用分别图9和图10的对角线510和514显示了实际与预测的目标值,描绘了相等性。完整数据集计算(图9)显示了离群值如何影响结果。DOBR修改图(图10)用对角线514平分非离群值518显示去除的偏倚以及可能需要进一步研究的明显离群值数据点组516。
图9是图示根据本公开的一个或多个实施例的在具有减少的偏倚的情况下基线基于计算机的机器学习模型的抗压强度和预测抗压强度之间的关系示例的图表。
图10是图示根据本公开的一个或多个实施例的具有减少的偏倚情况下的另一个示例性基于计算机的机器学习模型的抗压强度和预测抗压强度之间的关系示例的图表。
离群值的识别以及它们有时在上述类型的图中形成的模式对于DOBR方法在工业应用中的附加益处是有用的。离群值可以形成其它方法根本无法观察到的模式或组。该信息是通过简单地将DOBR与分析人员提供的模型一起使用来创建的。不需要附加的信息或假设。在实践中,DOBR定义的离群值集合可以提供有用的信息来改进、提供见解或验证基础模型。
图11是根据本公开的一个或多个实施例的用于利用DOBR进行机器学习预测的另一个示例性基于计算机的系统的框图。
在本发明的实施例中,机器学习过程从数据集开始,该数据集由n个自变量和m个长度记录以及目标变量/>的数组(m×1)组成。在实施例中,为了训练机器学习模型,数据集/>根据例如下面的等式13被分成两个随机选择的预定大小的子集:一个用于训练模型,另一个用于测试其预测准确度:
等式13
其中是数据集的自变量/>的子集,并且/>是数据集的自变量/>的子集。
对于本次讨论,的70%/30%拆分用于训练(n个记录)和测试(j个记录)(例如,70%的记录是训练的并且30%的记录是测试的),但是可以采用任何合适的拆分,诸如例如50%/50%、60%/40%、80%/20%、90%/10%、95%/5%,或其它合适的训练/测试拆分。使用/>训练的机器学习模型L通过计算预测目标变量集合{ypred}来进行测试,如例如下面的等式14中所表达的:
等式14
在说明性实施例中,模型准确度然后被测量为标准(norm),例如它可以具有例如以下形式:/>
等式15
在说明性实施例中,在训练和测试环境中,我们可以直接测量离群值,因为我们同时拥有输入和输出变量。一般而言,模型预测{ypred}中的离群值(诸如与实际目标变量值的偏倚大)是由于模型L无法将特定输入值变换成已知目标变量附近的预测值。这些记录的输入数据包含模型无法映射到如由目标变量给出的现实的因素和/或现象的影响。将这些记录保留在数据集中可能会使结果产生偏倚,因为模型系数是在所有数据记录都同样有效的假设下计算的。
在一些实施例中,上述例如参考上面的图6的DOBR处理适用于给定的数据集,其中分析人员期望通过去除对结果产生不利偏倚的离群值来拟合数据的最佳模型。它通过将模型解限制为已去除离群值的初始数据集的子集来提高模型的预测准确度。在说明性实施例中,DOBR辅助的解决方案具有两个输出结果:
a)模型描述数据的x值集合、模型参数和模型解,以及
b)模型未描述数据的x值集合、模型参数和模型解。
因此,除了为受限数据集计算更准确的模型外,在实施例中,DOBR还提供了可以相对于给定模型进一步研究以理解高模型预测误差的原因的离群值数据集。
在本节前面所示的机器学习框架的说明性实施例中,预测模型是根据训练数据计算的,并且该模型单独用于测试阶段。由于通过设计,测试阶段可能不使用目标值来确定离群值,因此上面参考图6描述的DOBR方法可能不适用。但是,DOBR方法的示例性方面可能没有在上面使用:如前面提到的DOBR输出结果所建议的离群值-非离群值分类能力。
为了描述本发明的实施例的机器学习应用中的DOBR,可以将数据集分为两个随机选择的部分:一个用于训练,一个用于测试。在训练阶段,自变量和目标变量都被保留,但在测试中,目标变量是隐藏的,并且自变量用于预测目标变量。已知的目标变量值仅用于测量模型的预测误差。
在实施例中,给定具有n个记录的训练数据集{x,ytar}train604、机器学习模型L608和误差接受标准∝622,可以实现DOBR以减少训练机器学习模型L608的偏倚。在一些实施例中,机器学习模型L608由模型引擎实现,包括例如处理设备和存储器和/或存储设备。根据实施例,示例性方法模型根据例如下面的等式16为将机器学习模型L608应用于完整输入数据集{x,ytar}train604的所有记录来估计{ytrain}606:
等式16 {ypred}0=L{(x,y)train,xtrain},
其中0指示初始状态,并且x是指输入记录。
然后,根据说明性实施例,总误差函数618根据例如下面的等式17计算初始模型总误差e0:
等式17 e0=||{ypred}0,{ytrain}||,
其中e0是初始模型总误差。
然后,根据说明性实施例,误差函数612根据例如下面的等式18计算模型误差:
等式18
其中E是预测的记录误差,并且k表示迭代。
然后,根据说明性实施例,误差函数612根据例如下面的等式19计算新数据记录选择向量:
等式19
其中I是记录选择向量。
然后,根据说明性实施例,数据记录选择器614根据例如下面的等式20通过仅选择记录选择向量等于1的记录来计算要包括在模型计算中的非离群值数据记录:
等式20
其中in是索引,其引用包括DOBR的记录集合作为非离群值。
然后,根据说明性实施例,具有最新系数602的机器学习模块608根据例如下面的等式21使用DOBR选择的数据记录来计算完整训练集604的新预测值620:
等式21
然后,根据说明性实施例,总误差函数618根据例如下面的等式22计算模型总误差:
等式22
然后,根据说明性实施例,收敛测试624根据例如下面的等式23测试模型收敛:
等式23
其中β是收敛标准622,诸如例如0.5%。
在一些实施例中,如果例如百分比误差小于例如0.5%,那么收敛测试624可以终止迭代处理。否则,该处理可以返回到训练数据集604。
在一些实施例中,DOBR迭代处理测量模型可以预测自身的程度,而不是测量其相对于测试数据集的准确度。这里的目标是测试模型预测目标变量的能力,并且具有大偏倚的记录被系统地去除以提高模型关注数据预测相对好的大部分数据的能力。该处理必须在同一数据集上完成。如果在测试集中识别出离群值,那么从训练集中去除记录没有任何意义。该处理是DOBR方法的基础,因为在计算新模型(新模型参数)后重新输入在先前迭代中去除的记录。该处理要求使用相同的数据集。
在实施例中,在定义学习模型之后执行该迭代过程。基于要解决的问题,在实施例中,用户选择机器学习算法,然后确定“微调”或配置模型的具体超参数。可以使用标准技术(诸如交叉验证)或简单地通过将测试误差绘制为特定的用户提供的参数范围的函数来选择这些参数。使用的特定值可以优化预测准确度与计算时间,同时确保模型既不欠拟合也不过拟合。有几个强大的工具可以帮助完成这个处理,但用户体验和直觉也是选择最佳模型超参数的宝贵益处。下面讨论的示例中使用了特定模型和相关联的超参数。
误差接受与模型误差图是通过应用误差接受值序列并制表或绘制结果来从这个步骤计算的。这些图识别数据集中因为其误差贡献略大于适合模型的数据记录的误差贡献而作为离群值的部分。同样在实践中,这些图可以显示模型未解释的不止一种类型的变化。斜率可以随着它收敛到模型的斜率而变化。这些变化可以帮助研究模型无法解释的附加数据编码行为的性质。可以识别占据不同斜率区间的记录,并且对它们的进一步调查可以提供有助于构建更稳健模型的见解。
在实施例中,在训练时,如上所述,已经计算了两个模型:
模型1
{yref}=L{(x,y)train,xtest},
其中{yref}是参考模型,用作测量准确度改进的基础;以及
模型2
{yBase}=L{(x,y)in,xtest},
其中{yBase}是DOBR基础模型,由收敛的离群值审查记录构建,并在非离群值数据(x,y)in上进行训练。
在实施例中,与模型1和模型2相关联的误差例如分别是εref=||{yref},{ytest}||和εBase=||{yBase},{ytest}||。
因此,在实施例中,基础模型{yBase}表明它可能是非离群值记录的更好预测器。但是,测试数据集是未经审查的,包含非离群值和离群值。因此,不确定对未经审查的测试数据应用非离群值、定制的模型是否将产生比{yref}更好的预测模型。但是,在许多情况下,可以观察到εBase在统计上等于或大于εref。
在目标是为给定数据集计算最佳预测模型的非机器学习应用中,从选定(非离群值)记录计算的DOBR模型始终会产生较低的模型误差,因为识别出的离群值记录被省略。在没有离群值的极限情况下,DOBR模型误差等于总模型误差,因为数据集是相同的。
但是,在机器学习应用中,目标可能是使用可用数据的子集(训练)开发模型,然后在另一个子集(测试)上测量其预测准确度。但是,在一些实施例中,DOBR方法在计算模型参数之前在每次迭代中去除模型离群值。在机器学习模型开发中,这可以在训练阶段完成,但根据定义,测试中的目标值只能用于测量模型的预测准确度,而没有离群值的高级知识。这一观察意味着标准DOBR方法可以利用在训练阶段计算的更多DOBR模型信息进行泛化(generalized)。
图11是根据本公开的一个或多个实施例的用于机器学习的具有减少的偏倚的另一个示例性基于计算机的系统的框图。
在实施例中,在训练时,如上所述,产生以下信息:DOBR为非离群值选择的训练数据集值(x,y)in、DOBR为非离群值训练的数据选择向量{Iin}、DOBR为非离群值选择的训练数据集值(x,y)out,以及DOBR为离群值训练的数据选择向量{1-Iin}。
在实施例中,DOBR将训练数据分类为两个互斥的子集。此外,我们还有对应的选择向量,其例如根据下面的等式24为训练数据集中的每个记录提供二进制:(非离群值或离群值)分类值:
等式24 (x,y)in&(x,y)out,where:(x,y)train=(x,y)in+(x,y)outandItrain=Iin+Iout.。
在实施例中,训练数据属性的完整集合xtrain和DOBR产生的分类{Itrain}用于构建/训练例如存储在模型库303中的分类器机器学习模型C。该模型应用于测试数据集xtest,以基于训练数据集DOBR建立的知识将测试数据记录分类为离群值或非离群值。例如,分类器机器学习模型C根据下面的等式25实现:
等式25 {IC}=C[(Itrain,xtrain),xtest]。
因此,在实施例中,{IC}分别产生两个测试预测数据集;和/>其中或者0。上述信息创建了几个可能的“完整数据集”预测模型,以用于分析测试数据集。在一些实施例中,对整个数据集显示出最大预测改进的三个模型是:
模型3
模型4
模型5
在一些实施例中,对于{y1},机器学习模型L608由非离群值数据(x,y)in定义,并应用于DOBR测试分类数据以预测非离群值测试值。对离群值数据执行相同的过程。在实施例中,这种组合的目的是使用最精确的预测模型及其对应的数据集。换句话说,该模型分别在应用于使用DOBR分类定义的其相应数据集上测试了非离群值和离群值模型的整体预测准确度。
在一些实施例中,对于{y2},机器学习模型L608由训练数据(x,y)train定义,并且还应用于DOBR测试分类数据该模型使用L(x,y)train的广泛知识来预测DOBR定义的离群值和非离群值x值的目标值。该模型的目的是测试分别应用于DOBR分类的非离群值和离群值数据集的完整训练模型的预测准确度。
在一些实施例中,第三个模型{y3}是联接前两种方法的预测特性的混合模型。这个模型测试将L(x,y)train(在总训练上训练的模型608)与L(x,y)out(在将应用于其相应分类的数据集的训练集中的DOBR分类的离群值上训练的特定模型)联接的预测益处(如果有的话)。还存在可以在进一步研究中探索的附加混合模型。
在这三个模型和其它实施例中的每一个中,使用DOBR分类的非离群值和离群值记录两者来预测完整的测试数据集。使用这些模型测试DOBR方法提高机器学习模型整体预测准确度的能力。但DOBR的主要益处是识别模型离群值、将其去除,并根据剩余的非离群值计算最佳模型预测器。并且根据定义,DOBR定义的离群值是包含在给定使用的机器学习模型的当前变量(或特征)中未充分描述的变化的记录。
在一些实施例中,通过计算出的离群值和非离群值数据集,分析人员具有至少三个选项或更多。在实施例中,第一选项是应用基础模型{yref},并且不应用DOBR。当风险接受与模型误差曲线接近线性关系时,这是数据驱动的策略。在实施例中,第二选项是应用一个或多个模型:{y1},{y2}或{y3},并组合例如平均结果。在实施例中,第三选项是仅针对非离群值记录开发预测,并进一步研究离群值数据以开发针对该专门的新数据集的建模策略一例如,更改机器学习模型或添加变量以考虑无法解释的变化,等等。
关于选项3,有几种方法计算非离群值数据集,这里提到了两种可能的选择。相对大量可能性的一个原因可能是由于许多应用的机器学习模型的非线性。一般而言,{IC}*L[(x,y)train,xtest]≠L[(x,y)train,{IC}*xtest]。这种不相等可能是由于许多机器学习模型的复杂性造成的。例如,相等适用于线性回归,但不是机器学习模型的一般规则。
在实施例中,关于非离群值预测,DOBR方法最初并未设计用于改进对完整数据集的预测。通过设计,该方法基于提供的模型和数据集收敛到最佳离群值集合。剩余的数据和模型计算提供了提高的准确度,但没有关于如何对离群值进行预测的指导。隐含的决定是将不同的模型应用于离群值数据集,该离群值数据集反映了非离群值模型中不存在的独特数据变化。
在实施例中,定义了两个模型来测试非离群值预测准确度-从分析中去除离群值。选择非离群值数据集的第一选择根据例如下面的模型6将DOBR分类向量{IC}应用到参考模型{yref}:
模型6
{y4}={IC}*L[(x,y)train,xtest]={IC}*{yref}.
在实施例中,参考模型利用完整的训练数据定义模型来根据数据集xtest进行预测。然后基于从训练数据集中获得的DOBR方法的知识应用分类向量以去除预测的离群值。该模型将DOBR应用于最一般或最广泛的域模型。
在实施例中,第二模型根据例如下面的模型7通过根据非离群值训练数据使用从训练阶段创建的DOBR模型以最窄或“精确”的方式将DOBR应用到仅由分类模型{IC}选择的记录:
模型7
还有其它可以从本研究中开发的分析公式形成的模型,并且取决于问题,它们可以具有显著的可预测性改进潜力。但是,这里使用的模型{y4}和{y5}是限制情况,其表示训练域利用率和模型定义方面最广泛和最窄的版本。
在实施例中,为了测试上面定义的DOBR开发的模型(诸如,模型3-模型7)的预测准确度,我们使用{yref}作为模型{y1},{y2}和{y3}(分别为模型3、模型4和模型5)的比较基础。对于{y4}和{y5}(分别为模型6和模型7),非离群值数据集的模型预测,比较基础是{IC}*ytest。因此,在实施例中,可以根据例如下面的等式26、27和28来确定误差:
等式27其中=数据集的长度,
等式28其中/>
等式29其中/>
在说明性实施例的以下示例中,DOBR的预测准确度的测量是通过ε1,ε2,和/或ε3小于εRef多少(如果有的话)来衡量的。对于非离群值数据集误差ε4和ε5,改进的测量是误差相对于离群值调整的基础误差εRef的减少。下面针对示例结果描述调整。
在示例性发明性DOBR改进的机器学习示例的一些实施例中,可以使用七个机器学习回归模型来测试先前定义的五个模型的准确度:线性回归、k最近邻、LASSO、支持向量、决策树、装袋和随机森林。这些机器学习回归模型是广泛的模型构造的示例。还设想了附加或替代模型,诸如神经网络、聚类、集成模型等及其组合。
线性回归是一种方法,其可以让分析人员了解系数(或模型参数)可以具有技术/处理相关含义的处理。分析人员必须提供由方程表示的处理模型,并且通过最小化预测的和数据提供的目标值之间的误差来确定系数。
LASSO是“最小绝对收缩和选择算子”的缩写,是一种回归相关方法,其中附加项被添加到目标函数。该项是回归系数的绝对值之和,并且根据用户提供的参数被最小化。这个附加项的目的是针对增加变量(或特征)系数值添加惩罚。最小化仅保留主要系数,并且可以有助于减少变量(或特征)协方差或共线性的难以解释的影响。
决策树回归可以模仿人类思维,并且直观且易于解释。该模型选择决策树构造,该构造在逻辑上显示x值如何产生目标变量。分析人员在训练/测试机器学习练习中设置具体参数,比如每个叶子的最大深度和最小样本。
随机森林回归建立在决策树方法上。就像森林是由树组成的一样,随机森林回归模型是由决策树的组组成的。分析人员通过提供估计器数量(森林中的树数量)、与决策树最大树深度类似的一些参数、叶子特性以及与如何计算和应用模型误差相关的技术参数来定义森林结构。
k-NN是指k最近邻方法,其中预测值是根据x(或特征)域中的k最近邻计算的。选择测量距离的度量和要使用的最近邻的具体数量是分析人员在微调模型以对给定数据集进行预测时设置的主要参数。这是一种简单直接的方法,可以很好地用于回归和分类预测。
支持向量回归是一种通用的机器学习方法,它有几种变体。回归意味着将模型拟合到数据,并且优化通常是最小化预测的目标变量和目标变量之间的误差。使用支持向量回归,误差标准被泛化为比如如果误差小于某个值“ε”,那么我们说“接近就足够好”并且只有大于“ε”的误差才被测量和优化。除了这个属性之外,该方法还允许将数据变换成具有标准或在一些情况下用户定义的变换函数或内核的非线性域。在目标是计算稳健的预测—而不是按照传统的回归精神对数据进行建模的情况下,使用多维数据结构。
装袋回归通过利用替换抽取随机子集来计算预测估计。每个随机样本都会计算目标变量的决策树(默认情况下)预测。最终的集成预测值可以通过几种方式计算—平均值是一个示例。主要的机器学习变量是每个集成中估计器的数量、变量(或特征)的数量和为训练每个估计器而抽取的样本数量,以及选择/替换指南。与决策树回归等其它方法相比,该方法可以减少方差。
分类器模型C(Itraining,xtrain),xtest]是说明性示例,因为它应用于DOBR非离群值/离群值分类和训练集x值以定义测试数据集中的非离群值和离群值。这是DOBR机器学习应用中的关键步骤,因为它将离群值的知识从训练集中转移到测试或生产数据集。如果存在不正确的分类,那么DOBR方法在提高机器学习预测准确度方面的效用就无法实现。
对决策树、k-NN、随机森林和装袋分类器模型的分类准确度进行了测试。选择了装袋和随机森林模型,并对这两个模型进行了微调,以产生非离群值的正确误差接受分数。更详细的分类分析可以建议其它模型。即使分类准确度至关重要,但广泛的分类器分析超出了此初步讨论的范围。
图12是图示根据本公开的一个或多个实施例的用于预测混凝土强度的具有减小的偏倚的一些示例性基于计算机的机器学习模型的模型误差和误差接受标准之间的关系示例的图表。
第一示例使用与上述参考混凝土抗压强度相同的数据集,其中DOBR应用于完整数据集。作为简短回顾,该数据集包含混凝土抗压强度作为如由8个定量输入变量定义的其组成和暴露的函数。该数据集有1,030个记录或实例,并且可以在加州大学欧文分校机器学习储存库档案中找到。
机器学习训练练习将此数据集划分为70%:30%的拆分,其中模型微调在训练数据集(70%)上执行,并且预测结果用测试数据集(30%)测量。
七种机器学习模型在混凝土抗压强度预测中的模型微调结果在下面的表1中给出。
表1
线性回归 | fit_intercept=False,normalize=False |
LASSO | alpha=4,fit_intercept=False |
决策树回归器 | max_depth=6,min_samples_split=2 |
随机森林回归器 | n_estimators=3,min_samples_leaf=30 |
k-邻居回归器 | n_neighbors=3 |
SVR | C=10,gamma=0.0005,kernel=’rbf’ |
装袋回归器 | n_estimators=25,max_samples=35 |
未显示默认模型参数(例如,对于Python 3.6),因为它们不会将信息添加到结果中。在实施例中,微调处理是使用均方误差作为指标来选择最小化训练和测试数据集误差的参数的练习。可以应用更复杂的算法,但使用简单的方法只是为了确保结果不会过拟合或欠拟合任何数据集误差。
在实施例中,为了应用DOBR,执行确定误差过大的数据的百分比(如果有的话)。在实施例中,机器学习模型被应用于记录相应模型误差的误差接受分数序列。这仅针对训练数据集完成,因为测试数据集仅用于测量机器学习模型的预测准确度。模型中包含的数据百分比“误差接受”是指用户愿意接受的总模型误差量,并且也指示模型充分描述的数据部分。
在实施例中,误差接受百分比序列的范围从100%到60%,增量为2。
图13是图示根据本公开的一个或多个实施例的用于预测能源使用的具有减小的偏倚的一些示例性基于计算机的机器学习模型的模型误差和误差接受标准之间的关系示例的图表。
第二个示例包含电器能源使用数据以及家庭环境和照明条件,每10分钟采样一次,持续4.5个月。它由29个属性组成:28个输入变量和1个输出(目标变量)以及19,735个记录:数据集和文档可以在加州大学欧文分校机器学习储存库档案中找到。
与上述类似,在实施例中,在电器能源使用预测中针对七个机器学习模型的模型微调结果在下面的表2中给出。
表2
线性回归 | fit_intercept=False,normalize=False |
LASSO | alpha=4,fit_intercept=False,max_iter=100000,tol=0.01 |
决策树回归器 | max_depth=22,min_samples_leaf=2 |
随机森林回归器 | n_estimators=6 |
k-邻居回归器 | n_neighbors=9 |
SVR | C=1000,gamma=0.001,kernel=’rbf’ |
装袋回归器 | n_estimators=20,max_samples=15 |
在实施例中,未显示默认模型参数(例如,对于Python 3.6),因为它们没有将信息添加到结果。微调处理是使用均方误差作为指标来选择最小化训练和测试数据集误差的参数的练习。可以应用更复杂的算法,但使用了简单的方法只是为了确保结果不会过拟合或欠拟合任何数据集误差。
在实施例中,为了应用DOBR,执行确定误差过大的数据的百分比(如果有的话)。在实施例中,机器学习模型被应用于记录相应模型误差的误差接受分数序列。这仅针对训练数据集完成,因为测试数据集仅用于测量机器学习模型的预测准确度。模型中包含的数据百分比“误差接受”是指用户愿意接受的总模型误差量,并且也指示模型充分描述的数据部分。
在实施例中,误差接受百分比序列的范围从100%到60%,增量为2。
图12和图13部分地示出了机器学习模型适应高变化数据的能力。线越接近线性(直的),模型充分描述转换为更少离群值(如果有的话)的数据的能力就越大。应用于混凝土数据的几个模型的线性行为表明它们几乎可以完全充分地描述整个训练数据集。能源数据集结果的非线性表明存在其中模型产生不准确的预测或离群值的显著比例的数据记录。
根据本发明的实施例,对于上述包括例如线性回归530、LASSO 540、决策树回归522、随机森林回归528、k-邻居回归524、支持向量回归(SVR)520和装袋回归526的混凝土数据图中以及上述包括例如线性回归730、LASSO 740、决策树回归722、随机森林回归728、k-邻居回归724、支持向量回归(SVR)720以及装袋回归726的能源使用数据图中的每条曲线,由低误差接受百分比定义的直线可以外推以确定离群值部分开始处的误差接受值。这个处理可以是自动化的,但在实践中,它可以手动执行,以确保所选择的误差接受值反映分析人员的判断。
外推练习和误差接受百分比选择是相对简单的处理,但它具有非常重要的含义。它指示所提出的模型与数据多好地拟合。误差接受值补码是离群值的数据集百分比,即,模型未能做出相对准确预测的记录的百分比。这是为给定数据集和实际应用选择机器学习(或任何模型)的重要信息。表3表示为两个示例数据集的每种模式选择的误差接受值。
表3
在实施例中,仅将DOBR选择的值的预测准确度与参考模型进行比较。这是DOBR的基本效用,因为该方法本身不提供任何关于提高完整数据集预测准确度的特定信息。因此,DOBR分析为分析人员提供了潜在的权衡:对部分数据集具有更好的预测能力,但没有为离群值记录提供信息。本节解决的问题是,与对应的参考模型测试数据预测相比,DOBR选择的结果在多大程度上(如果有的话)更准确。
为完整数据集计算参考误差。用于与非离群值数据集比较的调整参考误差值是通过将完整参考误差乘以误差接受值来计算的。例如,如果参考误差为10.0,并且误差接受值为80%,那么调整后的参考误差为10x 80%或8.0。该解释利用了“误差接受”的定义。例如,如果非离群值数据是根据80%的数据计算的,那么总误差的80%仍应保留在非离群值数据中。这是误差接受定义。
测量DOBR选择的非离群值的预测准确度性能的结果呈现在下面的表4和表5中,分别对应于例如混凝土强度数据集和能量数据集。参考误差是通过将实际误差接受百分比乘以||{yRef},{ytest}||的点估计来计算的。随机森林分类器没有应用于混凝土数据集,因为它被判断不会改变关于DOBR预测准确度提高的结论。
对于以下所有统计数据,结果显示来自100个随机试验选择的训练和测试数据子集的平均值±95%置信区间。在下表中的一些示例中,支持向量结果是通过较少的迭代(5或10次)计算出来的,以用于管理计算时间问题。
表4
/>
表5
表4显示了使用DOBR选择的记录,即使有任何预测改进,也很少。这个结果并不令人惊讶,事实上,这是基于图12中所示的误差接受与模型误差曲线的形状而预期的。
同样如预期那样,基于图13,表5指示了对于装袋和随机森林分类器两者,DOBR选择的预测相对于参考模型值有相当大的改进,分别参见下面的图14A和图14B。DOBR模型{y5}={y1in}显示了最大改进,从而表明在模型学习之前建议去除离群值再加上DOBR分类提供了比仅将DOBR分类用于完整(非DOBR)模型更好的结果。模型之间改进结果的差异显示模型选择是重要的。虽然这个决定由分析人员做出,但通过模型比较预测准确度是有意义的。模型运行时间和几个其它因素也是重要的,并且本研究并非被设计为或旨在表明一个模型优于另一个模型的可行性。
表5的结论是明确且具有统计意义。考虑到离群值偏倚的可能性,如比如图13的图中所示,与使用没有DOBR的机器学习模型相比,使用DOBR方法的机器学习模型可以为非离群值记录提供更好的预测准确度。因此,包括具有DOBR的机器学习模型的示例性发明性计算系统在进行预测时具有改进的准确度和减少的误差,从而提高了实现模型的性能和效率。但这种改进可能要付出一定的代价:对于识别出的离群值,可能没有预测值或考虑。在实施例中,如何对离群值记录建模可以基于应用而变化。
表6示出了使用装袋分类器对混凝土抗压强度数据集进行训练/测试采样的预测准确度结果。随机森林分类器未应用于该数据集。该表显示了对于100个随机选择的训练和测试数据集,测试数据和每个模型之间的95%置信水平的均方根误差(参见公式15)。
表6
线性回归和LASSO产生最大的基础或参考模型误差。但是,{y1}模型产生的预测准确度在统计上与除决策树之外的所有其它模型相同。在这种情况下,决策树模型产生最好的预测准确度,并且除了线性回归和LASSO之外的所有模型似乎都没有随着DOBR的添加而提高。
表7示出了DOBR模型相对于参考模型的预测准确度在每种情况下针对例如DOBR模型:装袋分类器的混凝土抗压强度预测准确度性能的增加(+)或减少(-)。
表7
这些结果并不令人惊讶,因为线性回归和LASSO的模型误差与误差接受曲线是具有最大非线性的图,并且其它曲线几乎是直线,表明这些模型充分预测了目标变量,并且不需要离群值分析。并且这就是表7中传达的消息。关于预测的混凝土抗压强度的模型输出在本文附加的附录A中给出。
现在查看表8中的能耗预测误差结果,存在不同的情况,涉及例如装袋和随机森林分类器的电器能耗预测误差。装袋、线性回归和LASSO模型具有最大的参考预测误差,并且随机森林模型具有最小的参考预测误差。右三列中的DOBR模型误差表明,在许多情况下,DOBR模型产生的预测准确度高于参考模型。
表8
装袋 | ||{yRef},{ytest}|| | ||{y1},{ytest}|| | ||{y2},{ytest}|| | ||{y3},{ytest}|| |
线性回归 | 93.99±0.41 | 84.70±0.39 | 86.47±0.32 | 92.36±0.47 |
LASSO | 94.87±0.37 | 84.87±0.39 | 85.76±0.32 | 94.06±0.44 |
决策树 | 92.06±0.51 | 87.84±0.54 | 93.34±0.49 | 86.37±0.52 |
随机森林 | 77.73±0.36 | 81.82±0.39 | 80.57±0.35 | 79.08±0.41 |
k最近邻 | 82.49±0.38 | 84.75±0.38 | 84.92±0.33 | 82.31±0.45 |
支持向量 | 82.59±0.93 | 79.27±1.20 | 77.46±1.10 | 84.29±1.08 |
装袋 | 103.40±0.53 | 85.55±0.46 | 92.52±0.71 | 99.41±0.58 |
随机森林 | ||{yRef},{ytest}|| | ||{y1},{ytest}|| | ||{y2},{ytest}|| | ||{y3},{ytest}|| |
线性回归 | 93.98±0.39 | 81.59±0.40 | 84.45±0.33 | 91.75±0.45 |
LASSO | 95.08±0.47 | 82.53±0.46 | 83.93±0.38 | 93.84±0.54 |
决策树 | 92.08±0.53 | 87.11±0.46 | 93.34±0.49 | 85.71±0.45 |
随机森林 | 77.59±0.35 | 79.34±0.37 | 78.92±0.35 | 78.14±0.37 |
k最近邻 | 82.50±0.34 | 82.62±0.31 | 83.59±0.27 | 81.51±0.39 |
支持向量 | 83.38±1.32 | 79.76±1.55 | 77.77±1.43 | 85.24±1.42 |
装袋 | 103.96±0.59 | 85.94±0.51 | 93.55±0.79 | 97.76±0.59 |
值得注意的是,装袋参考模型具有最大的参考误差值,但其DOBR增强模型结果通常与其它模型处于相同的统计范围内。同样出于实际原因,支持向量模型仅运行了10次迭代。这解释了其模型结果的不确定性增加。
详细的改进结果在与例如DOBR模型的电器能耗预测准确度性能相关的表9中所示。注意的是,对于大多数机器学习模型,至少有一个DOBR模型产生一些预测准确度提高。但是,也存在相对大的差异,因此没有关于DOBR产生的可预测性改进的结论性结果。从能量数据的模型误差与误差接受曲线来看,所有图都显示了随机森林和决策树模型具有最小曲率的非线性行为。而且看起来模型(特别是随机森林)可以基于这里显示的结果充分对这种变化建模。关于预测能源使用的模型输出在本文附加的附录B中给出。
表9
/>
图14A和图14B图示了根据本公开的一个或多个实施例的根据具有DOBR分类器的发明性示例性基于计算机的系统的示例性实施例的分类器模型中的非离群值和离群值分布的图。
混凝土数据集相对小,因此数据图可以提供视觉洞察力,但由于DOBR在这种情况下几乎没有价值,因此绘制此数据集并不能提高我们对DOBR如何工作的理解。但是,对于能源数据集预测,DOBR确实产生一些显著的预测改进。但其相对大的尺寸(13,814个训练记录,5,921个测试记录)使得直接的散点图可视化难以解释。带有大量点的散点图(如图9和图10)可能会掩盖任何细节。表3中给出的误差改进结果是对非离群值数据集的总和,但问题仍然是DOBR方法和分类模型如何产生这些结果。
在实施例中,为了解决这个问题,可以分析两个模型表示的误差分布:离群值和非离群值数据集的{y4}随机森林分类器(图14A)和{y5}装袋分类器(图14B)。在实施例中,非离群值误差设计上应小于离群值误差,但示例性发明性DOBR模型和分类处理仅由训练数据构建,因此测试数据集可以包含先前未见的信息。因此,模型和分类计算可能不精确,并且分类误差的程度可以在这些图中可视化。这项工作是针对线性和装袋回归模型执行的,因为这两种方法分别具有表5中给出的最大和最小的改进益处。
为了讨论,参考误差值在图14A和图14B的两个图中都突出显示。顶部的一组箭头表明80%的非离群值误差值小于1,000,这表示20%的误差值>1,000。这组较低的箭头还表明,对于离群值分布,大约20%的离群值的误差<1,000或80%的误差>1,000–这应该表示离群值误差。如果不预先了解误差接受百分比值,我们就无法精确计算分类处理的准确度,但上图确实表明,即使发生错误分类,大多数值仍被正确分类。
图14C图示了根据本公开的一个或多个实施例的针对发明性示例性基于计算机的系统的示例性实施例的示例用例的作为误差接受值的函数的模型误差的图,该系统具有DOBR训练的机器学习模型,以用于预测钻井中的非生产时间。
海上钻井作业包含石油和天然气行业的独特挑战。除了来自天气和海洋深度的可观察到的后勤和环境风险外,在高温、压力和振动环境下作业还存在隐藏的井下风险。钻井时间安排很紧并且由于井下装备故障(非生产时间或NPT)导致的延迟会造成巨大收入损失。
为了帮助管理NPT,构造了机器学习模型来帮助预测未来的停机时间事件,以便将这些估计的延迟纳入设定钻井目标的合同条款中。查看历史事件,包括:钻孔距离[英尺]、孔尺寸[英寸]、工具尺寸[英寸]、位置压力严重程度、最大狗腿[度/100英尺]、振动严重程度类别、曲率类别和NPT(hr)。
将线性、xgboost、梯度提升和随机森林回归模型应用于井下装备故障数据,以80/20的训练/测试拆分来测量模型预测准确度。Hyperband用于微调模型和相关参数值,如下表10中所示:
表10
将DOBR计算的离群值信息传输到测试数据集的分类函数可以选择为随机森林模型,其中估计器的数量例如等于5。这个微调活动也是在分析的训练部分中完成的。参数选择的度量是计算训练集中正确分类元素的百分比,并将其与模型的误差接受值进行比较。
线性回归包含在此分析中,因为它是其中系数可以提供工程洞察力以帮助识别附加的最佳实践细化的唯一的模型。从预测的角度来看,其它模型更稳健,但提供的洞察力很少。
如本说明书中所讨论的,有几个与DOBR相关的模型可以构造基本的DOBR处理。在这个示例中,给出了三个模型:M表示给定的超调(hypertuned)模型。
使用DOBR选择训练和测试数据集的内值和离群值:
伪代码8
其中Data_xin_scrub和Data_yin_scrub是从训练集计算的DOBR内值,Data_xout_scrub和Data_yout_scrub是从训练集计算的DOBR离群值,DOBR_Model_testin和DOBR_Model_testout分别是从DOBR分类模型计算的测试数据集内值和离群值,Base)odel_yin,Base)odel_yout是使用DOBR分类模型分类为内值和离群值的非DOBR计算模型结果,并且I为DOBR定义的内值将Base)odel值分配给BaseModel_yin,并且为DOBR定义的离群值将BaseModel分配给BaseModel_yin。
从这些子集中,三个DOBR模型是:
a.DOBR_Model#1=[DOBR_Modeltestin,DOBR_Modeltestout]
b.DOBR_Model#2=[BaseModelyin,DOBR_Modelte]tout]
c.DOBR_Model#3=[DOBR_Modelte]tin,BaseModelyout]
针对上述超调模型运行误差接受百分比与模型误差曲线产生如图14C中所示的曲线。这些曲线的重要特性是它们的曲率—而不是它们本身的误差值。一般而言,给定曲线在域(0,100%)上的斜率越线性,离群值的影响越小。对于海上井下装备故障数据,曲线呈现线性直至误差接受率约为80%,然后出现各种非线性斜率。在将斜率分析为误差接受值的函数时,下表(表11)显示了DOBR分析的所确定的误差接受阈值。
表11
回归模型 | 应用的误差接受% |
线性 | 85.0 |
xgboost | 85.0 |
梯度提升 | 85.0 |
随机森林 | 85.0 |
所有模型都使用计算的超参数运行并分配了误差接受值。关于预测的NPT的模型输出在本文附加的附录C中给出,并且误差结果在下表12中列出:
表12
现在我们有了非DOBR模型以及三个DOBR模型,我们可以选择在生产中使用哪个模型来进行未来预测。总之,线性模型提供最低的预测准确度,并且DOBR模型#1或#2提供最好的预测准确度。此时,分析人员可以平衡这些准确度数据与其它实际考虑因素(例如,计算时间)以选择模型来应用于未来预测。
虽然使用DOBR来训练和实现机器学习模型以用于预测混凝土压缩应变和预测能量的结果,但也可以预期其它应用。
例如,图像渲染和可视化可以利用机器学习模型来自动预测和实现基于例如医学数据的渲染参数,如在本文为了所有目的通过引用整体并入的美国专利No.10,339,695中所述。DOBR可以用于训练和实现基于内容的渲染的机器学习模型。表示患者的三维区域的医学数据集可以用作输入数据。使用DOBR,可以从训练医学数据集中去除离群值,使得可以根据上述DOBR技术在非离群值数据上训练机器学习模型。机器学习模型通过对来自训练医学数据集的非离群值数据的深度学习进行训练,以从医学数据集中提取特征并基于医学数据集的输入来输出两个或更多个基于物理的渲染参数的值。在一些实施例中,基于物理的渲染参数是用于一致的数据处理、照明设计、观看设计、材料专有性或内部渲染器属性的控制。基于物理的渲染器使用应用产生的输出值渲染患者三维区域的逼真图像。
在用于训练和实现机器学习模型的DOBR的另一个示例应用中,可以使用上述DOBR技术训练机器学习模型,以生成用于机器输出控制命令的控制命令,如在本文为了所有目的通过引用整体并入的美国专利No.10,317,854中所描述的。在这样的示例中,模拟器可以基于控制命令来执行机器的工作操作的模拟。模拟器可以通过基于控制命令模拟机器的物理动作来生成用于训练机器学习模型的完整数据集。这样的数据集可以使用DOBR迭代进行处理,以确保在训练模型参数(包括工作操作数据、控制命令数据和用作每次模拟输入的机器数据)时去除任何离群值模拟。
用于训练和实现机器学习模型的DOBR的应用的其它示例可以包括例如用于按需模型训练和部署的软件即服务实现、具有离群值训练模型的离群值数据集分析、电网能源优化建模、用于优化用户参与度的用户内容推荐建模,以及其它实现。下面更详细地描述一些示例:
自定义ML训练的SaaS实现
图15图示了根据本公开的一个或多个实施例的用于机器学习模型训练和部署的示例性发明性偏倚减少的模型生成服务的框图。
在一些实施例中,通过在训练数据集中包括用于训练和部署一个或多个机器学习模型的动态离群值偏倚减少(DOBR)的组件,偏倚减少的模型生成服务1500可以实现为软件即服务(SaaS)。在一些实施例中,DOBR提供迭代处理来按照预定义标准根据预定义标准去除离群值记录。这种条件是用户定义的误差接受值,以百分比表达。它是指用户愿意潜在地基于他们的见解和将在本讨论后面描述的其它分析结果在模型中接受多少误差。100%的值表示接受所有误差,并且在DOBR处理中不会去除任何记录。如果选择0%,那么去除所有记录。一般而言,对于工业应用,已观察到在80%到95%范围内的误差接受值。
在一些实施例中,用户可以与偏倚减少的模型生成服务1500交互以发起对机器学习模型的请求。在一些实施例中,偏倚减少的模型生成服务1500可以接收请求、基于请求训练机器学习模型并且向用户返回经训练的机器学习模型以用于用户的目的。
在一些实施例中,用户可以使用计算设备1511来例如经由网络1520与偏倚减少的模型生成服务1500通信。在一些实施例中,计算设备1511可以向偏倚减少的模型生成服务1500发送模型请求1512以请求自定义训练模型。因此,模型请求1512可以包括请求的模型属性,诸如例如用于DOBR数据集过滤的误差接受值、模型类型(例如,分类、对象检测、自然语言处理器、数据预测、时间序列预测、计算机视觉等)、模型存储器限制或任何其它请求的模型属性或其任意组合。在一些实施例中,模型请求1512还可以包括自定义训练模型将被用于的建模任务的训练数据。例如,对于电网能量优化模型,请求可以包括根据例如一天中的时间、星期几、一个月中的哪天、一年中的月份、季节、天气、地点、人口密度的电力需求数据以及其它电力需求数据的包。又例如,对于用于向一个或多个用户呈现在线内容的内容和广告推荐模型,请求可以包括用户参与数据的包(例如包括点击率、点击频率、花费在内容上的时间、页面上的内容地点、内容屏幕区域、内容类型或分类以及其它用户参与数据)结合诸如用户特性的用户数据,包括例如浏览器、地点、年龄或其它用户特性或其任意组合。
在一些实施例中,计算设备1511可以使用任何合适的电子请求通过网络1520将带有训练数据的模型请求1512发送到偏倚减少的模型生成服务1500。在一些实施例中,模型请求1512可以经由例如合适的应用编程接口(API)、消息传递协议或其它通信技术被传送到偏倚减少的模型生成服务1500。在一些实施例中,模型请求1512可以通过例如计算设备1511和偏倚减少的模型生成服务1500之间的直接接口或通过网络1520(诸如局域网(LAN)、广域网(WAN)、互联网、内联网或其它网络及其组合)或其组合被传送。在一些实施例中,连接可以包括例如硬线连接(例如,光纤电缆、同轴电缆、铜线电缆、以太网等)、无线连接(例如,WiFi、蓝牙、Zigbee、Z-Wave、蜂窝联网,诸如5G、4G、长期演进(LTE)、3G、高速下行链路分组接入(HSPA)、全球移动通信系统(GSM)、码分多址(CDMA)或其它技术及其组合)或其组合。
经由用户输入设备1508管理误差接受值,并经由显示设备1512查看结果,以及使用显示设备1512和用户输入设备1508的其它用户交互行为。基于误差接受值,偏倚减少的模型生成服务1500可以分析接收到数据库1510或与偏倚减少的模型生成服务1500通信的其它存储装置中的数据集1511。偏倚减少的模型生成服务1500可以经由数据库1510或其它存储设备接收数据集1511并使用一个或多个具有动态离群值偏倚减少功能的机器学习模型做出预测以提高准确度和效率。
在一些实施例中,偏倚减少的模型生成服务1500包括硬件和软件组件的组合,包括例如存储装置和存储器设备、高速缓存、缓冲器、总线、输入/输出(I/O)接口,处理器、控制器、联网和通信设备、操作系统、内核、设备驱动程序以及其它组件。在一些实施例中,处理器1507与多个其它组件通信以实现其它组件的功能。在一些实施例中,每个组件都在处理器1507上调度用于执行组件功能的时间,但是在一些实施例中,每个组件被调度到处理器1507的处理系统中的一个或多个处理器。在其它实施例中,每个组件都有其自己的处理器包括其中。
在一些实施例中,偏倚减少的模型生成服务1500的组件可以包括例如与模型索引1502和模型库1503通信的DOBR训练引擎1501、回归器参数库1505、分类器参数库1504和DOBR过滤器1506,以及其它可能的组件。每个组件可以包括硬件和软件的组合以实现组件功能,诸如例如存储器和存储设备、处理设备、通信设备、输入/输出(I/O)接口、控制器、联网和通信设备、操作系统、内核、设备驱动程序、指令集以及其它组件。
在一些实施例中,DOBR训练引擎1501包括用于实例化和执行机器学习模型的模型引擎。DOBR训练引擎1501可以通过使用模型索引1502访问模型库1503中的模型以进行实例化。例如,模型库1503可以包括机器学习模型库,该模型库可以被选择性地访问和实例化以供引擎(诸如DOBR训练引擎1501)使用。在一些实施例中,模型库1503可以包括机器学习模型,诸如例如支持向量机(SVM)、线性回归器、Lasso模型、决策树回归器、决策树分类器、随机森林回归器、随机森林分类器、K邻居回归器、K邻居分类器、梯度提升回归器、梯度提升分类器,以及其它可能的分类器和回归器。
在一些实施例中,基于模型请求1512的模型属性,DOBR训练引擎1501可以选择模型体系架构集合。例如,一些模型可能比其它模型小,因此基于模型请求1512中的最大尺寸要求,DOBR训练引擎1501可以使用模型索引1502来识别模型库1503中符合最大尺寸要求的模型体系架构。类似地,模型类型或任务类型可以用于识别模型体系架构。例如,DOBR训练引擎1501可以选择列出用于分类任务、回归任务、时间序列预测任务、计算机视觉任务或任何其它任务的模型体系架构集合。
因此,在一些实施例中,为了便于访问模型库1503中的机器学习模型库,DOBR训练引擎1501可以采用模型索引1502。在一些实施例中,模型索引1502可以用对模型标识符、模型类型、任务类型集合、存储器占用以及其它模型体系架构特性的引用为每个模型建立索引。例如,包括例如线性回归、XGBoost回归、支持向量回归、Lasso、K邻居回归、装袋回归、梯度提升回归、随机森林回归、决策树回归以及其它回归模型和分类模型的模型可以通过数字标识符建立索引并用名称标记。
在一些实施例中,软件指令存储在相应模型库1503或模型索引1502的存储器内,并缓存在高速缓存中以供给处理器1507。在一些实施例中,DOBR训练引擎1501可以通过经由通信和/或I/O设备访问或调用索引来利用模型索引1502,然后经由通信和/或I/O设备使用索引作为函数从模型库1503调用模型。
在一些实施例中,为了促进由DOBR训练引擎1501调用的模型的优化和定制,偏倚减少的模型生成服务1500可以将模型参数记录在例如存储器或存储装置中,诸如硬盘驱动器、固态驱动器、随机存取存储器(RAM)、闪存以及其它存储装置和存储器设备。例如,回归器参数可以在回归器参数库1505中记录和调整。因此,回归器参数库1505可以包括存储装置和通信硬件,其配置有足够的存储器和带宽来例如实时存储、调整和传送用于多个回归器的多个参数。例如,对于由DOBR训练引擎1501实例化的每个回归机器学习模型,可以在回归参数库1505中初始化和更新相应的参数。在一些实施例中,经由来自计算设备1511的模型请求1512,除了训练数据之外,用户可以还建立初始参数集合。但是,在一些实施例中,初始参数集合可以是预定的或随机的(例如,随机初始化的)。在实例化回归机器学习模型时,DOBR训练引擎1501可以将从模型索引1502中选择的模型与回归参数库1505中的参数集合相关联。例如,DOBR训练引擎1501可以例如根据与给定回归模型相关联的标识(ID)号调用参数集合。
类似地,在一些实施例中,可以在分类器参数库1504中记录和调整分类器参数。因此,分类器参数库1504可以包括存储装置和通信硬件,其配置有足够的存储器和带宽来例如实时存储、调整和传送用于多个分类器的多个参数。例如,对于由DOBR训练引擎1501实例化的每个分类机器学习模型,可以在分类器参数库1504中初始化和更新相应的参数。在一些实施例中,经由用户输入设备1508,用户可以建立初始参数集合。但是,在一些实施例中,初始参数集合可以是预定的或随机的(例如,随机初始化的)。在实例化分类机器学习模型时,DOBR训练引擎1501可以将从模型索引1502中选择的模型与分类器参数库1504中的参数集合相关联。例如,DOBR训练引擎1501可以例如根据与给定回归模型相关联的标识(ID)号调用参数集合。
在一些实施例中,通过经由模型索引1502从模型库1503调用和接收模型集合以及来自回归器参数库1505和/或分类器参数库1504的相应参数,DOBR训练引擎1501可以将一个或多个实例化和初始化的模型加载到例如DOBR训练引擎1501的高速缓存或缓冲区中。在一些实施例中,可以从模型请求1512中摄取训练数据集,并且DOBR训练引擎1501可以使用迭代DOBR训练过程训练模型集合中的每个模型。
在一些实施例中,例如,处理器1507或DOBR训练引擎1501中的处理器可以基于例如一天中的时间、星期几、一个月中的哪天、一年中的月份、季节、天气、地点、人口密度以及其它电力需求数据的每个输入数据点利用每个模型将训练数据集变换成例如对例如预测的电网电力需求的相应预测。可以将预测的输出与训练数据集的实际电力需求进行比较。
类似地,例如,DOBR训练引擎1501可以训练模型集合以基于模型请求1512的训练数据集根据内容属性对用户参与度进行建模。例如,模型集合可以用于基于来自训练数据集的输入(包括例如页面上的内容地点、内容屏幕区域、内容类型或分类以及其它用户参与数据)结合诸如用户特性的用户数据(包括例如,浏览器、地点、年龄,或其它用户特性或其任意组合)预测预测的用户参与度。然后可以基于用户参与度量(诸如例如点击率、点击频率、花费在内容上的时间以及其它用户参与度量或其容易组合)根据训练数据集将预测的用户参与度与每个输入的实际用户参与度进行比较。
但是,在一些实施例中,来自模型请求1512的训练数据集中的离群值可能会降低所实现模型的准确度,从而增加训练迭代的次数来在给定应用中为给定模型实现准确的参数集合。为了提高准确度和效率,DOBR训练引擎1501可以包括DOBR过滤器1501b以动态测试训练数据集中的数据点误差以确定离群值。因此,可以去除离群值以提供来自模型请求1512的更准确或更具代表性的训练数据集。在一些实施例中,DOBR过滤器1501b可以提供迭代机制,用于根据预定义标准(例如,如上所述并且例如由用户经由用户输入设备1508提供的用户定义的误差接受值)去除离群值数据点。在一些实施例中,用户定义的误差接受值表达为百分比,其中例如,100%的值表示所有误差都被接受并且过滤器1501b不会去除任何数据点,而例如0%的值导致所有数据点都被去除。在一些实施例中,过滤器1501b可以被配置为具有在例如大约80%和大约95%之间的范围内的误差接受值。
在一些实施例中,DOBR过滤器1501b与优化器1506结合工作,优化器1506被配置为确定误差并优化回归器参数库1505和分类器参数库1504中每个模型的参数。因此,在一些实施例中,优化器1506可以确定模型并将误差传送给DOBR训练引擎1501的过滤器1501b。因此,在一些实施例中,优化器1506可以包括例如具有足够存储器容量和带宽的存储装置和/或存储器设备以及通信设备,以接收数据集1511并和模型预测并确定例如离群值、收敛、误差、绝对值误差以及其它误差度量。
在一些实施例中,DOBR训练引擎1501使用DOBR过滤器1501b和来自模型请求1512的训练数据集选择和训练多个模型,DOBR训练引擎1501可以在最后一次训练迭代中比较每个模型之间的误差率。因此,DOBR训练引擎1501可以使用训练数据集的离群值减少数据集来检查每个模型的最低误差率。具有最低误差的模型可以被认为是性能最高的模型,因此可以被选择用于部署。在一些实施例中,DOBR训练引擎1501可以选择仅包括一个模型的模型集合。在这种场景中,DOBR训练引擎1501可以跳过比较误差率的步骤,并使用一个模型进行部署。
在一些实施例中,为了便于部署,偏倚减少的模型生成服务1500可以将选择的模型返回到计算设备1511作为生产就绪模型1513,该选择的模型使用过滤器1501b进行训练以进行动态离群值偏倚减少训练。在一些实施例中,生产就绪模型1513可以包括根据模型请求1512选择的模型体系架构和模型的训练参数。因此,在一些实施例中,偏倚减少的模型生成服务1500可以提供用于机器学习模型的按需训练和部署的SaaS解决方案、为用户的特定任务和/或生产环境自定义选择和训练。因此,用户可以简单地开发人工智能软件产品,而不需要从头开始构建机器学习模型。此外,DOBR的使用通过从供应的训练数据集中动态去除离群值来减少模型中的偏倚和误差提高了模型训练的准确度和效率。
离群值数据集分析
图16A和16B描绘了根据本公开的一个或多个实施例的说明性方法的离群值数据集建模的动态离群值偏倚减少。
在一些实施例中,一个或多个模型可以被训练以根据给定的输入x 1606预测输出。在一些实施例中,DOBR(诸如上述的DOBR训练引擎1501和过滤器1501b)提供迭代处理以根据预定义标准去除离群值记录。这个条件是用户定义的误差接受值,以百分比表达。它是指用户愿意潜在地基于他们的见解和将在本讨论后面描述的其它分析结果在模型中接受多少误差。100%的值表示接受所有误差,并且在DOBR处理中不会去除任何记录。如果选择0%,那么去除所有记录。一般而言,对于工业应用,已观察到在80%到95%范围内的误差接受值。
在一些实施例中,如上所述,通过训练机器学习模型中的迭代和动态离群值减少来减少偏倚可以为更准确的机器学习模型提供高效和强大的训练。在一些实施例中,除了对离群值减少的数据集建模之外,机器学习模型以及其它分析模型还可以应用于离群值数据集。离群值数据集的这种建模可以深入了解异常情况,诸如极端事件、外部因素、异常和此类异常情况的根本原因。
在一些实施例中,使用DOBR的离群值分析可以包括预分析,其中选择误差接受标准(∝),诸如∝=80%。在一些实施例中,误差接受标准C(∝)可以根据例如如上所述的等式1来定义。在一些实施例中,虽然可以使用其它函数关系来设置C(α),但百分位数函数是理解为什么模型包括或排除某些数据记录的直观指南,诸如如上所述的等式2。由于DOBR过程是迭代的,因此在实施例中,可以定义收敛标准,诸如例如0.5%。
在实施例中,给定数据集{x,ytar}1604、解决方案模型M 1608和误差接受标准∝1624,可以实现DOBR以在训练模型M 1608中减少偏倚。在一些实施例中,解决方案模型M1608通过模型引擎来实现,包括例如处理设备和存储器和/或存储设备。根据实施例,示例性方法根据例如如上所述的等式3为将解决方案模型M 1608应用于完整输入数据集{x,ytar}1604的所有记录计算模型系数M(c)1602和模型估计{ypred}1610。
然后,根据说明性实施例,总误差函数1618根据例如如上所述的等式16计算初始模型总误差e0。在一些实施例中,总模型误差可以包括模型预测误差,该模型预测误差汇总了总数据集中每个数据点的预测的个体误差。因此,误差函数1612也可以根据例如如上所述的等式5计算模型误差。
在一些实施例中,模型误差用于根据例如如上所述的等式6来确定数据记录选择向量{Ik}。在一些实施例中,数据记录选择向量可以包括基于模型误差分布中每个数据记录的每个模型误差的百分位的二进制分类。在一些实施例中,数据记录选择向量包括百分位阈值,高于该百分位阈值的数据记录被分类为离群值,并且等于或低于该百分位阈值的数据记录被分类为非离群值。根据说明性实施例,误差函数1612根据例如如上所述的等式6计算新的数据记录选择向量{Ik}以定义离群值数据集1617和非离群值数据集1616。根据说明性实施例,数据记录选择器1614根据例如如上所述的等式7通过仅选择记录选择向量等于1的记录来计算要包括在模型计算中的非离群值数据记录。
然后,根据说明性实施例,具有最新系数1602的模型1608根据例如如上所述的等式8从DOBR选择的数据记录1616计算新的预测值1620和模型系数1602。
然后,根据说明性实施例,模型1608使用新的模型系数为完整数据集计算新的预测值1620。该步骤再现了在正式步骤中为DOBR选择的记录计算预测值1620,但在实践中,新模型可以根据例如如上所述的等式9仅应用于DOBR去除的记录。然后,根据说明性实施例,总误差函数1618根据例如如上所述的等式10计算模型总误差。
然后,根据说明性实施例,收敛测试1624根据例如如上所述的等式11使用诸如例如0.5%的收敛标准1622(β)来测试模型收敛。在一些实施例中,如果例如百分比误差小于例如0.5%,那么收敛测试1624可以终止迭代处理。否则,该处理可以返回到初始数据集1604。
在一些实施例中,离群值分析模型1609还可以利用当前系数来根据例如如上所述的等式8从离群值数据集1617计算新的预测离群值1621和离群值模型系数。在一些实施例中,类似于模型1608,离群值分析模型1609可以在动态离群值偏倚减少中的每个迭代步骤被更新。在一些实施例中,离群值分析模型1609可以在动态离群值偏倚减少中的所有迭代步骤已经完成并且模型1608在收敛标准1622上已发生收敛之后被训练。因此,离群值分析模型1609可以针对离群值数据记录被训练以对引入偏倚的离群值进行建模。
在一些实施例中,离群值分析模型1609可以包括例如用于对离群值数据记录建模的合适的机器学习模型,诸如例如回归模型或分类器模型。例如,离群值分析模型1609可以包括例如决策树、随机森林、朴素贝叶斯、K-最近邻、支持向量机、神经网络(卷积神经网络和/或递归神经网络)或任何其它模型或其任意组合。在一些实施例中,通过用离群值数据记录训练离群值分析模型1609,离群值分析模型1609可以摄取新的数据记录来确定离群值行为的可能性。例如,可以基于提供给在离群值天气事件上训练的离群值分析模型1609的天气条件输入来预测极端天气事件。因此,离群值分析模型1609可以包括二进制分类器模型以基于预测的概率值将数据记录分类为可能的离群值或不是可能的离群值。在一些实施例中,在预测概率值超过阈值概率值的情况下,相关联的数据记录可以被分类为可能的离群值。此类预测可以用于通知模型1608的预测或基于相关联数据记录的其它分析。
在一些实施例中,离群值分析模型1609可以包括用于表征例如给定条件下离群值的频率、给定条件下离群值频率与非离群值频率的比率,或其它特性的统计模型,而不是机器学习模型。在一些实施例中,频率和/或比率可以基于例如给定条件下数据记录的平均值、给定条件下数据记录的中值或给定条件下数据记录的其它统计汇总。
例如,可以根据离群值分析模型1609的聚类模型(诸如例如k均值聚类、分布建模(例如,贝叶斯分布、混合建模、高斯分布建模等)或其它聚类分析或其任意组合)来对离群值数据记录1617进行聚类。因此,离群值分析模型1609可以根据相似性将离群值数据记录1617分组在一起以用于例如根本原因分析或其它分析或其任意组合。
用于电网能量优化的DOBR
图17A至图17C描绘了根据本公开的一个或多个实施例的说明性方法的电网能量需求预测和能量供应优化的动态离群值偏倚减少。
在一些实施例中,可以训练一个或多个模型以根据给定的输入x1706预测输出。在一些实施例中,DOBR(诸如上述的DOBR训练引擎1501和过滤器1501b)提供迭代处理来根据预定义标准去除离群值记录。这个条件是用户定义的误差接受值,以百分比表达。它是指用户愿意潜在地基于他们的见解和将在本讨论后面描述的其它分析结果在模型中接受多少误差。100%的值表示接受所有误差,并且在DOBR处理中不会去除任何记录。如果选择0%,那么去除所有记录。一般而言,对于工业应用,已观察到在80%到95%范围内的误差接受值。
在一些实施例中,如上所述,通过训练机器学习模型中的迭代和动态离群值减少来减少偏倚可以为更准确的机器学习模型提供高效和强大的训练。在一些实施例中,除了对离群值减少的数据集建模之外,机器学习模型以及其它分析模型还可以应用于离群值数据集。离群值数据集的这种建模可以深入了解异常情况,诸如极端事件、外部因素、异常和此类异常情况的根本原因。
参考图17A,在一些实施例中,可以训练电网能量需求模型1708以针对电力供应和存储优化预测电网能量需求。发电设施产生的过量电力供应可能未被利用,从而浪费供应能源所需的材料、资源和金钱。但是,电力供应不足可能会产生严重后果,包括可能限于给定区域或可能更广泛的停电和限电,这取决于供电不足的程度。因此,电网需求模型1708被有利地训练以更准确地预测能量需求可以提供对供电管理和优化的改进以提高资源利用效率并减少停电。
因此,在一些实施例中,例如通过上述DOBR训练引擎1501的DOBR模型训练处理可以提供电网能量需求训练数据1704以在没有离群值偏倚的情况下训练电网需求模型1708。在一些实施例中,训练数据可以包括历史能量数据记录,其中每个记录具有自变量1705和目标输出变量1706。
在一些实施例中,自变量1706可以包括电网状况数据,诸如例如一天中的时间、星期几、一个月中的哪天、一年中的月份、季节、天气、地点、人口密度、以及其它电力需求数据和电网状况数据。在一些实施例中,每个数据记录的目标输出变量1706可以包括例如给定时段或给定时间的电网电力需求。在一些实施例中,给定时段或给定时间可以包括例如瞬时日期和时间、一天中的时段,诸如例如早上、下午、晚上、一天中的两小时时段、一天中的三小时时段、一天中的四小时时段、一天中的六小时时段、一天中的八小时时段、一天中的十二小时时段、星期几、一个月中的哪天、一年中的月份,或任何其它评估电网能源需求的时段。
在一些实施例中,使用DOBR的离群值分析可以包括预分析,其中选择误差接受标准(∝)1702,诸如∝=80%。在一些实施例中,误差接受标准C(∝)可以根据例如如上所述的等式1来定义。在一些实施例中,虽然可以使用其它函数关系来设置C(α),但百分位数函数是理解为什么模型包括或排除某些数据记录的直观指南,诸如如上所述的等式2。由于DOBR过程是迭代的,因此在实施例中,可以定义收敛标准1724,诸如例如0.5%。
在一些实施例中,电网能量需求训练数据1704的每个数据记录可以提供给电网需求模型1708以针对每个自变量1705生成预测的输出变量1710。在一些实施例中,目标输出变量1706和预测的输出变量1710可以包括电网需求水平,诸如例如千瓦(kW)、吉瓦(GW)、太瓦(TW)或其它电功率单位。因此,为了根据自变量1705的电网状况数据学习和预测输出,电网需求模型1708可以采用合适的回归机器学习模型。例如,电网需求模型1708可以包括例如岭(Ridge)回归、Lasso回归、决策树、随机森林、K-最近邻、支持向量机、神经网络(递归神经网络)或任何其它合适的回归模型或其任意组合。在一些实施例中,DOBR可以被实现为减少训练电网需求模型M 1708中的偏倚以在没有离群值偏倚的情况下更准确地预测未来电网需求水平。
在一些实施例中,电网需求模型M 1708由模型引擎实现,包括例如处理设备和存储器和/或存储设备。根据实施例,示例性方法根据例如如上所述的等式3为将电网需求模型M 1708应用于完整输入数据集{x,ytar}1704的所有记录计算模型系数M(c)1702和模型估计{ypred}1710。
然后,根据说明性实施例,总误差函数1718根据例如如上所述的等式17计算初始模型总误差e0。在一些实施例中,总模型误差可以包括模型预测误差,该模型预测误差汇总了与针对每个自变量1705的目标输出变量1706的目标电网需求水平相比预测的电网需求水平的个体误差。因此,误差函数1712也可以根据例如如上所述的等式5计算模型误差。
在一些实施例中,模型误差用于根据例如如上所述的等式6来确定数据记录选择向量{Ik}。在一些实施例中,数据记录选择向量可以包括基于模型误差分布中每个数据记录的每个模型误差的百分位的二进制分类。在一些实施例中,数据记录选择向量包括百分位阈值,高于该百分位阈值的数据记录被分类为离群值,并且等于或低于该百分位阈值的数据记录被分类为非离群值。根据说明性实施例,误差函数1712根据例如如上所述的等式6计算新的数据记录选择向量{Ik}以定义离群值数据集1717和非离群值数据集1716。根据说明性实施例,数据记录选择器1714根据例如如上所述的等式7通过仅选择记录选择向量等于1的记录来计算要包括在模型计算中的非离群值数据记录。
然后,根据说明性实施例,具有最新系数1702的电网需求模型1708根据例如如上所述的等式8从DOBR选择的数据记录1716计算新的预测电网需求值1720和模型系数1702。
然后,根据说明性实施例,电网需求模型1708使用新的模型系数为完整数据集计算新的电网需求值1720。该步骤再现了在正式步骤中为DOBR选择的记录计算新的电网需求值1720,但在实践中,新模型可以根据例如如上所述的等式9仅应用于DOBR去除的记录。然后,根据说明性实施例,总误差函数1718根据例如如上所述的等式10计算模型总误差。
然后,根据说明性实施例,收敛测试1724根据例如如上所述的等式11使用诸如例如0.5%的收敛标准1722(β)来测试模型收敛。在一些实施例中,如果例如百分比误差小于例如0.5%,那么收敛测试1724可以终止迭代处理。否则,该处理可以返回到初始数据集1704。
在一些实施例中,为了便于供电确定,可以通过分析DOBR处理结束时产生的离群值数据集来确定由于外部因素导致的极端电力需求的风险。在一些实施例中,如图17C中所示,可以在由数据记录选择器1714确定的离群值电网需求数据集1717上训练极端电网需求模型1709。在一些实施例中,极端电网需求模型1709被训练以摄取离群值数据集1717的自变量1705并预测极端电网需求状况的风险1721。例如,在一些实施例中,某些状况可能与构成如离群值数据记录选择器1714所定义的异常高或异常低电网需求的离群值数据风险增加相关。
在一些实施例中,极端电网需求模型1709可以利用训练数据集1704的目标变量1706来确定极端电网需求模型1709的更新的模型系数和预测风险1721的误差。因此,极端电网需求模型1709可以被训练以预测极端电网需求水平的风险程度。
在一些实施例中,参考图17B,可以为电网1730测量新的电网状况数据记录1731。例如,在一些实施例中,电网状况数据记录1731可以包括例如,一天中的时间、星期几、一个月中的哪天、一年中的月份、季节、天气、地点、人口密度以及表征电网1730的其它电力需求数据。
在一些实施例中,根据迭代DOBR处理的终止产生的模型系数,电网需求模型1708可以预测未来需求水平1732。例如,在一些实施例中,预测可以包括,例如,下一小时、两小时、三小时、四小时、六小时、八小时、十二小时、二十四小时、两天、一周、两周、一个月或其它预测时段的电网需求水平。因此,电网需求模型1708可以产生未来预计的电网需求水平。
在一些实施例中,极端电网需求模型1709还可以接收为电网1730测量的新电网状况数据记录1731。在一些实施例中,极端电网需求模型1709可以摄取电网状况数据记录1731并根据电网状况基于对离群值需求水平的训练产生对极端电网需求风险1734的预测诸如例如出现极端电网状况的概率值。
在一些实施例中,发电设施1733可以接收预计的电网需求水平1732和极端电网需求风险1734以优化发电。在一些实施例中,发电设施1733可以动态地缩放发电和电力存储以补偿预计的需求增加或减少。在一些实施例中,动态缩放可以包括最小化发电盈余同时最小化发电不足的风险的优化函数。例如,发电设施1733可以平衡过剩的成本与不足的频率或程度,从而确保在不浪费资源的情况下产生足够的电力。在一些实施例中,发电设施1733还可以在极端电网需求风险1734高(诸如例如高于50%、高于60%、高于75%或其它合适的阈值风险)的情况下调整动态缩放。例如,发电设施1733可以在极端需求事件的风险高的情况下产生和存储额外的电力缓冲(例如,使用电池或其它电力存储机制)。因此,发电设施1733可以改进电网供电管理以降低电力不足的风险,同时还降低资源效率低下。
用户参与推荐内容的DOBR
图18A和18B描绘了根据本公开的一个或多个实施例的说明性方法的用户参与优化内容推荐预测的动态离群值偏倚减少。
在一些实施例中,可以训练一个或多个模型以根据给定的输入x1706预测输出。在一些实施例中,DOBR(诸如上述的DOBR训练引擎1501和过滤器1501b)提供迭代处理以根据预定义标准去除离群值记录。这个条件是用户定义的误差接受值,以百分比表达。它是指用户愿意潜在地基于他们的见解和将在本讨论后面描述的其它分析结果在模型中接受多少误差。100%的值表示接受所有误差,并且在DOBR处理中不会去除任何记录。如果选择0%,那么去除所有记录。一般而言,对于工业应用,已观察到在80%到95%范围内的误差接受值。
在一些实施例中,参考图18A,通过训练机器学习模型中的迭代和动态离群值减少来减少偏倚可以为更准确的机器学习模型提供高效和强大的训练。例如,在一些实施例中,内容预测模型1808可以被训练以预测给计算设备和软件应用的用户的推荐内容和/或内容投放。例如,可以根据广告内容在用户正在浏览的网页上投放互联网广告,或者可以在媒体流传输应用中推荐媒体内容。可以根据在浏览会话期间用户参与内容的优化来训练内容预测。因此,内容预测模型1808被有利地训练以更准确地预测内容推荐和投放以获得更大的用户参与。
因此,在一些实施例中,例如通过上述DOBR训练引擎1501的DOBR模型训练处理可以提供用户参与训练数据1804来在没有离群值偏倚的情况下训练内容预测模型1808。在一些实施例中,训练数据可以包括每个用户的特性和每个用户遇到的内容的参与程度,其中每个记录具有自变量1805和目标输出变量1806。
在一些实施例中,自变量1806可以包括用户特性数据,诸如例如用户数据,诸如用户特性(包括例如浏览器、地点、年龄或其它用户特性或其任意组合)以及用户参与度度量(诸如例如点击率、点击频率、花费在内容上的时间以及其它用户参与度度量或其任意组合)。在一些实施例中,每个数据记录的目标输出变量1806可以包括内容特性,例如内容来源、页面上的内容地点、内容屏幕区域、内容类型或分类。
在一些实施例中,使用DOBR的离群值分析可以包括预分析,其中选择误差接受标准(∝)1802,诸如∝=80%。在一些实施例中,误差接受标准C(∝)可以根据例如如上所述的等式1来定义。在一些实施例中,虽然可以使用其它函数关系来设置C(α),但百分位函数是理解为什么模型包括或排除某些数据记录的直观指南,诸如如上所述的等式2。由于DOBR过程是迭代的,因此在实施例中,可以定义收敛标准1824,诸如例如0.5%。
在一些实施例中,用户参与训练数据1804的每个数据记录可以提供给内容预测模型1808以生成针对每个自变量1805的预测输出变量1810。在一些实施例中,目标输出变量1806和预测的输出变量1810可以包括用于识别呈现给用户的内容的内容特性,诸如例如内容源、页面上的内容地点、内容屏幕区域、内容类型或分类。因此,为了根据自变量1805的用户特性数据学习和预测输出,内容预测模型1808可以采用合适的分类器机器学习模型,诸如例如多标签分类器。例如,内容预测模型1808可以包括例如协同过滤、逻辑回归、决策树、随机森林、K-最近邻、支持向量机、神经网络(例如,卷积神经网络)或任何其它合适的分类器模型或其任意组合。在一些实施例中,可以实现DOBR以减少训练内容预测模型M 1808中的偏倚以在没有离群值偏倚的情况下更准确地预测未来电网需求水平。
在一些实施例中,内容预测模型1808M由模型引擎实现,包括例如处理设备和存储器和/或存储设备。根据实施例,示例性方法根据例如如上所述的等式3为将内容预测模型1808应用于完整输入数据集{x,ytar}1804的所有记录计算模型系数M(c)1802和模型估计{ypred}1810。
然后,根据说明性实施例,总误差函数1818根据例如如上所述的等式18计算初始模型总误差e0。在一些实施例中,总模型误差可以包括模型预测误差,该模型预测误差汇总了与针对每个自变量1805的目标输出变量1806的目标内容特性相比预测的内容特性的个体误差。因此,误差函数1812也可以根据例如如上所述的等式5计算模型误差。
例如,在一些实施例中,可以将预测的输出变量1810与目标变量1806进行比较,以评估预测中的误差。在一些实施例中,误差可能受到优化器的影响,优化器采用损失函数来最大化用户参与度度量,诸如例如点击率、点击频率、花费在内容上的时间以及其它用户参与度度量或其任意组合。因此,基于根据用户参与水平预测的输出变量1810和目标变量1806之间的差异的误差可以用于更新内容预测模型1808的系数。
在一些实施例中,采用模型误差来根据例如如上所述的等式6来确定数据记录选择向量{Ik}。在一些实施例中,数据记录选择向量可以包括基于模型误差分布中每个数据记录的每个模型误差的百分位的二进制分类。在一些实施例中,数据记录选择向量包括百分位数阈值,高于该百分位阈值的数据记录被分类为离群值,并且等于或低于该百分位阈值的数据记录被分类为非离群值。根据说明性实施例,误差函数1812根据例如如上所述的等式6计算新的数据记录选择向量{Ik}以定义离群值数据集1817和非离群值数据集1816。根据说明性实施例,数据记录选择器1814根据例如如上所述的等式7计算通过仅选择记录选择向量等于1的记录来计算要包括在模型计算中的非离群值数据记录。
然后,根据说明性实施例,具有最新系数1802的内容预测模型1808根据例如如上所述的等式8从DOBR选择的数据记录1816计算新的预测内容特性1820和模型系数1802。
然后,根据说明性实施例,内容预测模型1808使用新的模型系数为完整数据集计算新的内容特性1820。该步骤再现了在正式步骤中为DOBR选择的记录计算新的内容特性1820,但在实践中,新模型可以根据例如如上所述的等式9仅应用于DOBR去除的记录。然后,根据说明性实施例,总误差函数1818根据例如如上所述的等式10计算模型总误差。
然后,根据说明性实施例,收敛测试1824根据例如如上所述的等式11使用诸如0.5%的收敛标准1822来测试模型收敛。在一些实施例中,如果例如百分比误差小于例如0.5%,那么收敛测试1824可以终止迭代处理。否则,该处理可以返回到初始数据集1804。
在一些实施例中,参考图18B,用户在用户计算设备1830上查看内容的新的用户特性1831。例如,在一些实施例中,用户特性1831可以包括例如表征用户计算设备1830处的用户的浏览器、软件应用、设备标识符、地点、年龄或其它用户特性或其任意组合。
在一些实施例中,根据迭代DOBR处理的终止产生的模型系数,内容预测模型1808可以预测要向用户显示以最大化用户参与度的内容的内容特性1832。例如,在一些实施例中,预测可以包括例如内容源、页面上的内容地点、内容屏幕区域、内容类型或分类或其任意组合。因此,内容预测模型1808可以产生内容推荐和投放以最大化参与度。
在一些实施例中,用户计算设备1820可以接收根据内容特性1832选择的内容以向用户显示该内容。因此,用户计算设备1830可以自动接收动态选择的内容以最大化用户参与,以例如提高广告收入、更准确广告与用户行为更紧密匹配的主题、媒体(例如,音乐、视频、音乐、图像、社交媒体内容等)等。因此,DOBR处理可以改进内容预测模型1808以在减少由于离群值行为导致的偏倚的情况下根据内容特性1832提供内容。
在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性DOBR机器学习模型可以至少部分地基于计算算法的蒙特卡罗方法(例如,Solovay-Strassen类型算法、Baillie-PSW类型算法、Miller-Rabin类型算法和/或Schreier-Sims类型算法),其可以考虑期望的非离群值数据的历史质量数据。在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性DOBR机器学习模型可以通过例如但不限于将至少一种机器学习技术(诸如,但不限于,决策树、提升、支持向量机、神经网络、最近邻算法、朴素贝叶斯、装袋、随机森林等)应用于收集和/或编译的传感器数据(例如,关于环境和/或货物的物理/视觉外观的各种类型的视觉数据)进行连续训练。在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性神经网络技术可以是但不限于前馈神经网络、径向基函数网络、递归神经网络、卷积网络(例如,U-net)或其它合适的网络。在一些实施例中并且可选地结合上文或下文描述的任何实施例,神经网络的示例性实现可以如下执行:
i)定义神经网络体系架构/模型,
ii)将输入数据传输到示例性神经网络模型,
iii)递增训练示例性模型,
iv)确定特定数量的时间步长的准确性,
v)应用示例性经训练的模型来处理新接收到的输入数据,
vi)可选地并且并行地,以预定的周期性继续训练示例性经训练的模型。
在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性经训练的神经网络模型可以至少通过神经网络拓扑、一系列激活函数和连接权重来指定神经网络。例如,神经网络的拓扑可以包括神经网络的节点的配置以及这些节点之间的连接。在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性经训练的神经网络模型也可以被指定为包括其它参数,包括但不限于偏倚值/函数和/或聚合函数。例如,节点的激活函数可以是阶跃函数、正弦函数、连续或分段线性函数、Sigmoid函数、双曲正切函数或表示节点被激活的阈值的其它类型的数学函数。在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性聚合函数可以是将输入信号与节点组合(例如,总和、乘积等)的数学函数。在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性聚合函数的输出可以用作示例性激活函数的输入。在一些实施例中并且可选地结合上文或下文描述的任何实施例,偏倚可以是可由聚合函数和/或激活函数使用的恒定值或函数,以使节点或多或少可被激活。
在一些实施例中并且可选地结合上文或下文描述的任何实施例,用于示例性神经网络中的每个连接的示例性连接数据可以包括节点对或连接权重中的至少一个。例如,如果示例性神经网络包括从节点N1到节点N2的连接,则用于连接的示例性连接数据可以包括节点对<N1,N2>。在一些实施例中并且可选地结合上文或下文描述的任何实施例,连接权重可以是影响在N2处输入之前是否修改和/或如何修改N1的输出的数值量。在循环网络的示例中,节点可以具有与其自身的连接(例如,连接数据可以包括节点对<N1,N1>)。
在一些实施例中并且可选地结合上文或下文描述的任何实施例,示例性经训练的神经网络模型还可以包括种类标识符(ID)和适应度(fitness)数据。例如,每个种类ID可以指示模型被分类在多个种类(例如,货物损失类别)中的哪个。例如,适应度数据可以指示示例性经训练的神经网络模型对输入感官数据集进行建模的程度如何。例如,适应度数据可以包括基于对模型的适应度函数的评估而确定的适应度值。例如,示例性适应度函数可以是基于通过在输入感官数据集上测试示例性经训练的神经网络模型而产生的误差的频率和/或误差的量级的目标函数。作为简单的示例,假设输入感官数据集包括十行,输入感官数据集包括表示为A和B的两列,并且示例性经训练的神经网络模型在给定输入值A的情况下将输出B的预测值。在该示例中,测试示例性经训练的神经网络模型可以包括从输入传感器数据集输入A的十个值中的每一个、将B的预测值与来自输入传感器数据集的B的对应实际值进行比较,并确定B的两个预测值和实际值是否不同和/或相差多少。为了说明,如果特定的神经网络在十行中的九行正确地预测了B值,则示例性适应度函数可以为相应的模型分配适应度值9/10=0.9。应该理解的是,先前的示例仅用于说明,而不应被认为是限制性的。在一些实施例中,示例性适应度函数可以基于与误差频率或误差率无关的因子,诸如输入节点的数量、节点层、隐藏层、连接、计算复杂度等。
在一些实施例中并且可选地结合上文或下文描述的任何实施例,本公开可以利用以下至少之一的几个方面:
美国专利系列8195484,标题为Insurance product,rating system and method;
美国专利系列8548833,标题为Insurance product,rating system and method;
美国专利系列8554588,标题为Insurance product,rating system and method;
美国专利系列8554589,标题为Insurance product,rating system and method;
美国专利系列8595036,标题为Insurance product,rating system and method;
美国专利系列8676610,标题为Insurance product,rating system and method;
美国专利系列8719059,标题为Insurance product,rating system and method;
美国专利系列8812331,标题为Insurance product,rating and creditenhancement system and method for insuring project savings。
现在将参考以下编号的条款描述本公开的至少一些方面:
条款1.一种方法,包括:
由至少一个处理器接收表示至少一个用户活动的至少一个活动相关属性的目标变量的训练数据集;
由所述至少一个处理器接收用于确定一个或多个离群值的至少一个偏倚标准;
由所述至少一个处理器确定机器学习模型的模型参数集合,包括:
(1)由所述至少一个处理器将具有初始模型参数集合的机器学习模型应用于训练数据集以确定模型预测值集合;
(2)由所述至少一个处理器通过将模型预测值集合与训练数据集的对应实际值进行比较来生成数据元素误差的误差集合;
(3)由所述至少一个处理器至少部分地基于数据元素误差的误差集合和至少一个偏倚标准生成数据选择向量以识别非离群值目标变量;
(4)由所述至少一个处理器在训练数据集上利用数据选择向量生成非离群值数据集;
(5)由所述至少一个处理器基于非离群值数据集确定机器学习模型的更新的模型参数集合;以及
(6)由所述至少一个处理器重复步骤(1)-(5)作为迭代,直到满足至少一个审查性能终止标准,从而获得机器学习模型的模型参数集合作为更新的模型参数,由此每次迭代使用更新的模型参数集合作为初始模型参数集合重新生成预测值集合、误差集合、数据选择向量和非离群值数据集;
由所述至少一个处理器至少部分地基于训练数据集和数据选择向量训练离群值分类器机器学习模型的分类器模型参数集合以获得被配置为识别至少一个离群值数据元素的经训练的离群值分类器机器学习模型;
由所述至少一个处理器将经训练的离群值分类器机器学习模型应用于至少一个用户活动的活动相关数据的数据集,以确定:
i)活动相关数据的数据集中的离群值活动相关数据集合,以及
ii)活动相关数据的数据集中的非离群值活动相关数据集合;以及
由所述至少一个处理器将机器学习模型应用于非离群值活动相关数据元素集合,以预测与至少一个用户活动相关的未来活动相关属性。
条款2.一种系统,包括:
与具有存储在其上的软件指令的非暂态计算机可读存储介质通信的至少一个处理器,其中所述软件指令在被执行时使至少一个处理器执行以下步骤:
接收表示至少一个用户活动的至少一个活动相关属性的目标变量的训练数据集;
接收用于确定一个或多个离群值的至少一个偏倚标准;
确定机器学习模型的模型参数集合,包括:
(1)将具有初始模型参数集合的机器学习模型应用于训练数据集以确定模型预测值集合;
(2)通过将模型预测值集合与训练数据集的对应实际值进行比较,生成数据元素误差的误差集合;
(3)至少部分地基于数据元素误差的误差集合和至少一个偏倚标准生成数据选择向量以识别非离群值目标变量;
(4)在训练数据集上利用数据选择向量生成非离群值数据集;
(5)基于非离群值数据集确定机器学习模型的更新的模型参数集合;以及
(6)重复步骤(1)-(5)作为迭代,直到满足至少一个审查性能终止标准,从而获得机器学习模型的模型参数集合作为更新的模型参数,由此每次迭代使用更新的模型参数集合作为初始模型参数集合重新生成预测值集合、误差集合、数据选择向量和非离群值数据集;
至少部分地基于训练数据集和数据选择向量来训练离群值分类器机器学习模型的分类器模型参数集合以获得被配置为识别至少一个离群值数据元素的经训练的离群值分类器机器学习模型;
将经训练的离群值分类器机器学习模型应用于至少一个用户活动的活动相关数据的数据集,以确定:
i)活动相关数据的数据集中的离群值活动相关数据集合,以及
ii)活动相关数据的数据集中的非离群值活动相关数据集合;以及
将机器学习模型应用于非离群值活动相关数据元素集合,以预测与至少一个用户活动相关的未来活动相关属性。
条款3.条款1和/或2的系统和方法,还包括:
由所述至少一个处理器将数据选择向量应用于训练数据集以确定离群值训练数据集;
由所述至少一个处理器使用离群值训练数据集训练至少一个特定于离群值的机器学习模型的至少一个特定于离群值的模型参数以预测离群值数据值;以及
由所述至少一个处理器利用特定于离群值的机器学习模型来预测离群值活动相关数据集的离群值活动相关数据值。
条款4.条款1和/或2的系统和方法,还包括:
由所述至少一个处理器使用训练数据集训练广义机器学习模型的广义模型参数以预测数据值;
由所述至少一个处理器利用广义机器学习模型来预测离群值活动相关数据集的离群值活动相关数据值;以及
由所述至少一个处理器利用广义机器学习模型来预测活动相关数据值。
条款5.条款1和/或2的系统和方法,还包括:
由所述至少一个处理器将数据选择向量应用于训练数据集以确定离群值训练数据集;
由所述至少一个处理器使用离群值训练数据集训练特定于离群值的机器学习模型的特定于离群值的模型参数以预测离群值数据值;
由所述至少一个处理器使用训练数据集训练广义机器学习模型的广义模型参数以预测数据值;
由所述至少一个处理器利用特定于离群值的机器学习模型来预测离群值活动相关数据集的离群值活动相关数据值;以及
由所述至少一个处理器利用特定于离群值的机器学习模型来预测活动相关数据值。
条款6.条款1和/或2的系统和方法,还包括:
由所述至少一个处理器使用训练数据集训练广义机器学习模型的广义模型参数以预测数据值;
由所述至少一个处理器利用广义机器学习模型来预测活动相关数据集合的活动相关数据值;
由所述至少一个处理器利用离群值分类器机器学习模型来识别活动相关数据值的离群值活动相关数据值;以及
由所述至少一个处理器去除离群值活动相关数据值。
条款7.条款1和/或2的系统和方法,其中训练数据集包括作为混凝土成分和混凝土固化暴露的函数的混凝土抗压强度的至少一个活动相关属性。
条款8.条款1和/或2的系统和方法,其中训练数据集包括作为家庭环境条件和照明条件的函数的能量使用数据的至少一个活动相关属性。
条款9.条款1和/或2的系统和方法,还包括:
由所述至少一个处理器接收应用编程接口(API)请求以生成具有至少一个数据元素的预测;以及
由所述至少一个处理器实例化至少一个云计算资源以调度机器学习模型的执行;
由所述至少一个处理器根据执行的调度利用机器学习模型来预测至少一个数据元素的至少一个活动相关的数据元素值;以及
由所述至少一个处理器将至少一个活动相关的数据元素值返回到与API请求相关联的计算设备。
条款10.条款1和/或2的系统和方法,其中训练数据集包括医学数据集的三维患者图像的至少一个活动相关属性;以及
其中机器学习模型被配置为基于医学数据集预测包括两个或更多个基于物理的渲染参数的活动相关数据值。
条款11.条款1和/或2的系统和方法,其中训练数据集包括电子机器命令的模拟控制结果的至少一个活动相关属性;以及
其中机器学习模型被配置为预测包括用于电子机器的控制命令的活动相关数据值。
条款12.条款1和/或2的系统和方法,还包括:
由所述至少一个处理器将活动相关数据集合分成多个活动相关数据子集;
由所述至少一个处理器为多个活动相关数据子集中的每个活动相关数据子集确定集成模型;
其中机器学习模型包括模型的集成;
其中每个集成模型包括来自模型的集成的模型的随机组合;
由所述至少一个处理器单独利用每个集成模型来预测特定于集成的活动相关数据值;
由所述至少一个处理器基于特定于集成的活动相关数据值和已知值确定每个集成模型的误差;以及
由所述至少一个处理器基于最低误差选择性能最高的集成模型。
贯穿本文件中引用的出版物在此通过引用整体并入。虽然已经描述了本公开的一个或多个实施例,但是应该理解的是,这些实施例仅是说明性的,而不是限制性的,并且许多修改对于本领域普通技术人员来说是显而易见的,包括本文描述的发明性方法、发明性系统/平台和发明性设备的各种实施例可以相互任意组合使用。此外,可以以任何期望的顺序执行各个步骤(并且可以添加任何期望的步骤和/或可以消除任何期望的步骤)。
Claims (20)
1.一种方法,包括:
由至少一个处理器从与至少一个生产环境相关联的至少一个计算设备接收包括数据记录的训练数据集的生产就绪模型请求;
其中每个数据记录包括自变量和目标变量;
由所述至少一个处理器确定至少一个机器学习模型的模型参数集合,包括:
(1)由所述至少一个处理器将具有初始模型参数集合的所述至少一个机器学习模型应用于训练数据集,以确定模型预测值集合;
(2)由所述至少一个处理器通过将模型预测值集合与训练数据集的对应实际值进行比较来生成数据元素误差的误差集合;
(3)由所述至少一个处理器至少部分地基于数据元素误差的误差集合和至少一个偏倚标准生成数据选择向量以识别非离群值目标变量;
(4)由所述至少一个处理器将数据选择向量应用于训练数据集以生成非离群值数据集;
(5)由所述至少一个处理器基于非离群值数据集确定所述至少一个机器学习模型的更新的模型参数集合;以及
(6)由所述至少一个处理器重复步骤(1)-(5)的至少一次迭代,直到满足至少一个审查性能终止标准,从而获得所述至少一个机器学习模型的模型参数集合作为更新的模型参数,由此每次迭代使用更新的模型参数集合作为初始模型参数集合重新生成预测值集合、误差集合、数据选择向量和非离群值数据集;以及
由所述至少一个处理器至少部分地基于所述至少一次迭代传输所述至少一个机器学习模型的生产就绪机器学习模型以供在所述至少一个生产环境中使用。
2.如权利要求1所述的方法,还包括:
由所述至少一个处理器至少部分地基于生产就绪模型请求来选择至少一个离群值分析机器学习模型;
由所述至少一个处理器确定用于所述至少一个离群值分析机器学习模型的离群值分析模型参数集合,包括:
(7)由所述至少一个处理器将具有初始模型参数集合的至少一个离群值分析机器学习模型应用于训练数据集以确定离群值分析模型预测值集合;以及
(8)由所述至少一个处理器通过将离群值分析模型预测值集合与训练数据集的对应实际值进行比较,生成离群值分析数据元素误差的离群值分析误差集合;
(9)由所述至少一个处理器重复步骤(7)-(8)作为所述至少一次迭代的一部分,直到对于所述至少一个机器学习模型满足所述至少一个审查性能终止标准;以及
由所述至少一个处理器将所述离群值分析机器学习模型传送到所述至少一个计算设备以在所述至少一个生产环境中使用以预测离群值事件的可能性。
3.如权利要求1所述的方法,其中每个数据记录的自变量包括电网状态;
其中电网状态包括:
一天中的时间,
日期,
天气,
地点,
人口密度,或
其任意组合;
其中目标变量包括电网能量需求;以及
其中所述至少一个机器学习模型包括至少一个能量需求预测机器学习模型,该模型被训练以至少部分地基于随后的电网状态来预测电网能量需求。
4.如权利要求3所述的方法,还包括:
由所述至少一个处理器至少部分地基于生产就绪模型请求来选择至少一个极端需求机器学习模型;
由所述至少一个处理器确定用于所述至少一个极端需求机器学习模型的极端需求模型参数集合,包括:
(7)由所述至少一个处理器将具有初始模型参数集合的所述至少一个极端需求机器学习模型应用于训练数据集,以确定极端需求模型预测值集合;以及
(8)由所述至少一个处理器通过将极端需求模型预测值集合与训练数据集的对应实际值进行比较,生成极端需求数据元素误差的极端需求误差集合;
(9)由所述至少一个处理器重复步骤(7)-(8)作为所述至少一次迭代的一部分,直到对于所述至少一个机器学习模型满足所述至少一个审查性能终止标准。
由所述至少一个处理器将极端需求机器学习模型传送到所述至少一个计算设备以在所述至少一个生产环境中使用以预测极端电网需求的可能性。
5.如权利要求1所述的方法,其中每个数据记录的自变量包括用户特性;
其中用户特性包括:
浏览器,
地点,
年龄,或
其任意组合;
其中目标变量包括;
内容来源,
网页上的内容位置,
内容屏幕区域,
内容类型,
分类,或
其任意组合;以及
其中所述至少一个机器学习模型包括至少一个内容预测机器学习模型,该模型被训练以至少部分地基于后续用户特性来预测内容推荐。
6.一种方法,包括:
由与至少一个生产环境相关联的至少一个计算设备的至少一个处理器将包括数据记录的训练数据集的生产就绪模型请求传输到至少一个自动模型生成处理器;
其中每个数据记录包括自变量和目标变量;
由所述至少一个处理器从所述至少一个自动模型生成处理器接收至少部分地基于由所述至少一个自动模型生成处理器执行的至少一次迭代的生产就绪机器学习模型,所述至少一次迭代包括:
确定所述至少一个机器学习模型的模型参数集合,包括:
(1)将具有初始模型参数集合的所述至少一个机器学习模型应用于训练数据集,以确定模型预测值集合;
(2)通过将模型预测值集合与训练数据集的对应实际值进行比较,生成数据元素误差的误差集合;
(3)至少部分地基于数据元素误差的误差集合和至少一个偏倚标准来生成数据选择向量以识别非离群值目标变量;
(4)将数据选择向量应用于训练数据集,以生成非离群值数据集;
(5)基于非离群值数据集确定所述至少一个机器学习模型的更新的模型参数集合;以及
(6)重复步骤(1)-(5)的至少一次迭代,直到满足至少一个审查性能终止标准,以获得所述至少一个机器学习模型的模型参数集合作为更新的模型参数,由此每次迭代使用更新的模型参数集合作为初始模型参数集合来重新生成预测值集合、误差集合、数据选择向量和非离群值数据集。
7.如权利要求6所述的方法,还包括由所述至少一个处理器接收用于在所述至少一个生产环境中使用以预测离群值事件的可能性的离群值分析机器学习模型;
其中所述至少一次迭代还包括:
至少部分地基于生产就绪模型请求来选择至少一个离群值分析机器学习模型;
确定所述至少一个离群值分析机器学习模型的离群值分析模型参数集合,包括:
(7)将具有初始模型参数集合的所述至少一个离群值分析机器学习模型应用于训练数据集以确定离群值分析模型预测值集合;以及
(8)通过将离群值分析模型预测值集合与训练数据集的对应实际值进行比较,生成离群值分析数据元素误差的离群值分析误差集合;以及
(9)重复步骤(7)-(8)作为所述至少一次迭代的一部分,直到对于所述至少一个机器学习模型满足所述至少一个审查性能终止标准。
8.如权利要求6所述的方法,其中每个数据记录的自变量包括电网状态;
其中电网状态包括:
一天中的时间,
日期,
天气,
地点,
人口密度,或
其任意组合;
其中目标变量包括电网能量需求;以及
其中所述至少一个机器学习模型包括至少一个能量需求预测机器学习模型,该模型被训练以至少部分地基于随后的电网状态来预测电网能量需求。
9.如权利要求8所述的方法,还包括由所述至少一个处理器接收用于在所述至少一个生产环境中使用以预测极端电网需求的可能性的极端需求机器学习模型;
其中所述至少一次迭代还包括:
至少部分地基于生产就绪模型请求来选择至少一个极端需求机器学习模型;
确定所述至少一个极端需求机器学习模型的极端需求模型参数集合,包括:
(7)将具有初始模型参数集合的所述至少一个极端需求机器学习模型应用于训练数据集,以确定极端需求模型预测值集合;以及
(8)通过将极端需求模型预测值集合与训练数据集的对应实际值进行比较,生成极端需求数据元素误差的极端需求误差集合;以及
(9)重复步骤(7)-(8)作为所述至少一次迭代的一部分,直到对于所述至少一个机器学习模型满足所述至少一个审查性能终止标准。
10.如权利要求6所述的方法,其中每个数据记录的自变量包括用户特性;
其中用户特性包括:
浏览器,
地点,
年龄,或
其任意组合;
其中目标变量包括;
内容来源,
网页上的内容位置,
内容屏幕区域,
内容类型,
分类,或
其任意组合;以及
其中所述至少一个机器学习模型包括至少一个内容预测机器学习模型,该模型被训练以至少部分地基于后续用户特性来预测内容推荐。
11.一种系统,包括:
至少一个处理器,被配置为执行软件指令,所述软件指令使所述至少一个处理器执行以下步骤:
从与至少一个生产环境相关联的至少一个计算设备接收包括数据记录的训练数据集的生产就绪模型请求;
其中每个数据记录包括自变量和目标变量;
为至少一个机器学习模型确定模型参数集合,包括:
(1)将具有初始模型参数集合的所述至少一个机器学习模型应用于训练数据集,以确定模型预测值集合;
(2)通过将模型预测值集合与训练数据集的对应实际值进行比较,生成数据元素误差的误差集合;
(3)至少部分地基于数据元素误差的误差集合和至少一个偏倚标准来生成数据选择向量以识别非离群值目标变量;
(4)将数据选择向量应用于训练数据集,以生成非离群值数据集;
(5)基于非离群值数据集确定所述至少一个机器学习模型的更新的模型参数集合;以及
(6)重复步骤(1)-(5)的至少一次迭代,直到满足至少一个审查性能终止标准,以获得所述至少一个机器学习模型的模型参数集合作为更新的模型参数,由此每次迭代使用更新的模型参数集合作为初始模型参数集合来重新生成预测值集合、误差集合、数据选择向量和非离群值数据集;
至少部分地基于所述至少一次迭代传输所述至少一个机器学习模型的生产就绪机器学习模型,以供在所述至少一个生产环境中使用。
12.如权利要求11所述的系统,其中所述至少一个处理器还被配置为执行软件指令,所述软件指令使所述至少一个处理器执行以下步骤:
至少部分地基于生产就绪模型请求选择至少一个离群值分析机器学习模型;
确定所述至少一个离群值分析机器学习模型的离群值分析模型参数集合,包括:
(7)将具有初始模型参数集合的所述至少一个离群值分析机器学习模型应用于训练数据集以确定离群值分析模型预测值集合;以及
(8)通过将离群值分析模型预测值集合与训练数据集的对应实际值进行比较,生成离群值分析数据元素误差的离群值分析误差集合;
(9)重复步骤(7)-(8)作为所述至少一次迭代的一部分,直到对于所述至少一个机器学习模型满足所述至少一个审查性能终止标准;以及
将离群值分析机器学习模型传送到所述至少一个计算设备以在所述至少一个生产环境中使用以预测离群值事件的可能性。
13.如权利要求11所述的系统,其中每个数据记录的自变量包括电网状态;
其中电网状态包括:
一天中的时间,
日期,
天气,
地点,
人口密度,或者
其任意组合;
其中所述目标变量包括电网能量需求;以及
其中所述至少一个机器学习模型包括至少一个能量需求预测机器学习模型,该模型被训练以至少部分地基于随后的电网状态来预测电网能量需求。
14.如权利要求13所述的系统,其中所述至少一个处理器还被配置为执行软件指令,所述软件指令使所述至少一个处理器执行以下步骤:
至少部分地基于生产就绪模型请求选择至少一个极端需求机器学习模型;
确定所述至少一个极端需求机器学习模型的极端需求模型参数集合,包括:
(7)将具有初始模型参数集合的所述至少一个极端需求机器学习模型应用于训练数据集,以确定极端需求模型预测值集合;以及
(8)通过将极端需求模型预测值集合与训练数据集的对应实际值进行比较,生成极端需求数据元素误差的极端需求误差集合;
(9)重复步骤(7)-(8)作为所述至少一次迭代的一部分,直到对于所述至少一个机器学习模型满足所述至少一个审查性能终止标准。
将极端需求机器学习模型传送到所述至少一个计算设备以在所述至少一个生产环境中使用以预测极端电网需求的可能性。
15.如权利要求11所述的系统,其中每个数据记录的自变量包括用户特性;
其中用户特性包括:
浏览器,
地点,
年龄,或
其任意组合;
其中目标变量包括;
内容来源,
网页上的内容位置,
内容屏幕区域,
内容类型,
分类,或
其任意组合;以及
其中所述至少一个机器学习模型包括至少一个内容预测机器学习模型,该模型被训练以至少部分地基于后续用户特性来预测内容推荐。
16.一种系统,包括:
与至少一个生产环境相关联的至少一个计算设备的至少一个处理器,其中所述至少一个处理器被配置为执行软件指令,所述软件指令使所述至少一个处理器执行以下步骤:
将包括数据记录的训练数据集的生产就绪模型请求传送到至少一个自动模型生成处理器;
其中每个数据记录包括自变量和目标变量;
从所述至少一个自动模型生成处理器接收至少部分地基于由所述至少一个自动模型生成处理器执行的至少一次迭代的生产就绪机器学习模型,所述至少一次迭代包括:
确定所述至少一个机器学习模型的模型参数集合,包括:
(1)将具有初始模型参数集合的所述至少一个机器学习模型应用于训练数据集,以确定模型预测值集合;
(2)通过将模型预测值集合与训练数据集的对应实际值进行比较,以生成数据元素误差的误差集合;
(3)至少部分地基于数据元素误差的误差集合和至少一个偏倚标准来生成数据选择向量以识别非离群值目标变量;
(4)将数据选择向量应用于训练数据集,以生成非离群值数据集;
(5)基于非离群值数据集确定所述至少一个机器学习模型的更新的模型参数集合;以及
(6)重复步骤(1)-(5)的至少一次迭代,直到满足至少一个审查性能终止标准,以获得所述至少一个机器学习模型的模型参数集合作为更新的模型参数,由此每次迭代使用更新的模型参数集合作为初始模型参数集合来重新生成预测值集合、误差集合、数据选择向量和非离群值数据集。
17.如权利要求16所述的系统,其中所述至少一个处理器还被配置为执行软件指令,所述软件指令使所述至少一个处理器执行接收用于在所述至少一个生产环境中使用以预测离群值事件的可能性的离群值分析机器学习模型的步骤;
其中所述至少一次迭代还包括:
至少部分地基于生产就绪模型请求来选择至少一个离群值分析机器学习模型;
确定所述至少一个离群值分析机器学习模型的离群值分析模型参数集合,包括:
(7)将具有初始模型参数集合的所述至少一个离群值分析机器学习模型应用于训练数据集以确定离群值分析模型预测值集合;以及
(8)通过将离群值分析模型预测值集合与训练数据集的对应实际值进行比较,生成离群值分析数据元素误差的离群值分析误差集合;以及
(9)重复步骤(7)-(8)作为所述至少一次迭代的一部分,直到对于所述至少一个机器学习模型满足所述至少一个审查性能终止标准。
18.如权利要求16所述的系统,其中每个数据记录的自变量包括电网状态;
其中电网状态包括:
一天中的时间,
日期,
天气,
地点,
人口密度,或
其任意组合;
其中目标变量包括电网能量需求;以及
其中所述至少一个机器学习模型包括至少一个能量需求预测机器学习模型,该模型被训练以至少部分地基于随后的电网状态来预测电网能量需求。
19.如权利要求18所述的系统,其中所述至少一个处理器还被配置为执行软件指令,所述软件指令使所述至少一个处理器执行接收用于在所述至少一个生产环境中使用以预测极端电网需求的可能性的极端需求机器学习模型的步骤;
其中所述至少一次迭代还包括:
至少部分地基于生产就绪模型请求来选择至少一个极端需求机器学习模型;
确定所述至少一个极端需求机器学习模型的极端需求模型参数集合,包括:
(7)将具有初始模型参数集合的所述至少一个极端需求机器学习模型应用于训练数据集,以确定极端需求模型预测值集合;以及
(8)通过将极端需求模型预测值集合与训练数据集的对应实际值进行比较,生成极端需求数据元素误差的极端需求误差集合;以及
(9)重复步骤(7)-(8)作为所述至少一次迭代的一部分,直到对于所述至少一个机器学习模型满足所述至少一个审查性能终止标准。
20.如权利要求16所述的系统,其中每个数据记录的自变量包括用户特性;
其中用户特性包括:
浏览器,
地点,
年龄,或
其任意组合;
其中目标变量包括;
内容来源,
网页上的内容位置,
内容屏幕区域,
内容类型,
分类,或
其任意组合;以及
其中所述至少一个机器学习模型包括至少一个内容预测机器学习模型,该模型被训练以至少部分地基于后续用户特性来预测内容推荐。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962902074P | 2019-09-18 | 2019-09-18 | |
US17/025,889 US11288602B2 (en) | 2019-09-18 | 2020-09-18 | Computer-based systems, computing components and computing objects configured to implement dynamic outlier bias reduction in machine learning models |
US17/025,889 | 2020-09-18 | ||
PCT/US2021/022861 WO2022060411A1 (en) | 2019-09-18 | 2021-03-18 | Computer-based systems, computing components and computing objects configured to implement dynamic outlier bias reduction in machine learning models |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116569189A true CN116569189A (zh) | 2023-08-08 |
Family
ID=72717923
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080072815.4A Pending CN114556382A (zh) | 2019-09-18 | 2020-09-18 | 被配置为在机器学习模型中实现动态离群值偏倚减少的基于计算机的系统、计算组件和计算对象 |
CN202180074814.8A Pending CN116569189A (zh) | 2019-09-18 | 2021-03-18 | 被配置为在机器学习模型中实现动态离群值偏倚减少的基于计算机的系统、计算组件和计算对象 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080072815.4A Pending CN114556382A (zh) | 2019-09-18 | 2020-09-18 | 被配置为在机器学习模型中实现动态离群值偏倚减少的基于计算机的系统、计算组件和计算对象 |
Country Status (13)
Country | Link |
---|---|
US (1) | US11288602B2 (zh) |
EP (2) | EP4022532A1 (zh) |
JP (2) | JP7399269B2 (zh) |
KR (2) | KR20220066924A (zh) |
CN (2) | CN114556382A (zh) |
AU (1) | AU2021343372A1 (zh) |
BR (1) | BR112022005003A2 (zh) |
CA (2) | CA3154671A1 (zh) |
DE (1) | DE112021004908T5 (zh) |
GB (4) | GB2603358B (zh) |
MX (1) | MX2023003217A (zh) |
NO (1) | NO20230419A1 (zh) |
WO (2) | WO2021055847A1 (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9069725B2 (en) | 2011-08-19 | 2015-06-30 | Hartford Steam Boiler Inspection & Insurance Company | Dynamic outlier bias reduction system and method |
KR102503653B1 (ko) | 2014-04-11 | 2023-02-24 | 하트포드 스팀 보일러 인스펙션 앤드 인슈어런스 컴퍼니 | 시스템 조작 및 수행 데이터 모델링에 기초한 미래 신뢰도 예측 개선 |
US11636292B2 (en) | 2018-09-28 | 2023-04-25 | Hartford Steam Boiler Inspection And Insurance Company | Dynamic outlier bias reduction system and method |
US11615348B2 (en) | 2019-09-18 | 2023-03-28 | Hartford Steam Boiler Inspection And Insurance Company | Computer-based systems, computing components and computing objects configured to implement dynamic outlier bias reduction in machine learning models |
US11328177B2 (en) * | 2019-09-18 | 2022-05-10 | Hartford Steam Boiler Inspection And Insurance Company | Computer-based systems, computing components and computing objects configured to implement dynamic outlier bias reduction in machine learning models |
US11657323B2 (en) * | 2020-03-10 | 2023-05-23 | International Business Machines Corporation | Machine learning model accuracy fairness |
US11501239B2 (en) * | 2020-03-18 | 2022-11-15 | International Business Machines Corporation | Metric specific machine learning model improvement through metric specific outlier removal |
US20220189630A1 (en) * | 2020-12-14 | 2022-06-16 | Medtronic Minimed, Inc. | Machine learning models for detecting outliers and erroneous sensor use conditions and correcting, blanking, or terminating glucose sensors |
CN113176761B (zh) * | 2021-04-28 | 2022-09-06 | 西安电子科技大学 | 多加工特征薄板零件质量预测与工艺参数优化方法 |
CN113408742B (zh) * | 2021-06-24 | 2023-06-02 | 桂林理工大学 | 一种基于机器学习的高精度海表温度反演方法 |
CN113722813A (zh) * | 2021-07-20 | 2021-11-30 | 中科云谷科技有限公司 | 用于泵车臂架状况监测的方法、装置及泵车 |
WO2023049128A1 (en) * | 2021-09-21 | 2023-03-30 | Genentech, Inc. | Model routing and robust outlier detection |
US20230229976A1 (en) * | 2022-01-20 | 2023-07-20 | Visa International Service Association | System, method, and computer program product for time-based ensemble learning using supervised and unsupervised machine learning models |
US11775791B2 (en) * | 2022-03-02 | 2023-10-03 | Ricoh Company, Ltd. | Cloud-based parallel ink estimation for production printers |
US11755863B1 (en) * | 2022-03-02 | 2023-09-12 | Ricoh Company, Ltd. | Ink estimation model updates for production printers |
US20240119175A1 (en) * | 2022-04-22 | 2024-04-11 | Iqvia Inc. | Machine learning for data anonymization |
CN115460567B (zh) * | 2022-11-09 | 2023-03-24 | 清华大学 | 数据处理方法、装置、计算机设备和存储介质 |
CN116384257B (zh) * | 2023-05-29 | 2023-09-29 | 浙江大学 | 一种空分整装冷箱装配误差预测与公差优化方法 |
CN116625827B (zh) * | 2023-06-17 | 2024-01-23 | 广州市盛通建设工程质量检测有限公司 | 含钢渣细集料的混凝土抗压测试方法、装置、设备及介质 |
CN116843080B (zh) * | 2023-07-12 | 2024-03-19 | 济南明泉数字商务有限公司 | 一种基于机器学习的尿素生产碳元素足迹预测方法及系统 |
CN117302236B (zh) * | 2023-09-27 | 2024-03-26 | 湖北天凯风林电子有限公司 | 一种基于深度学习的车辆状态监测方法及系统 |
CN117251816A (zh) * | 2023-10-26 | 2023-12-19 | 南方电网能源发展研究院有限责任公司 | 碳排放数据的验证方法、装置、计算机设备和存储介质 |
Family Cites Families (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58160241U (ja) | 1982-04-21 | 1983-10-25 | 呉羽化学工業株式会社 | b型バツフル |
JPS59180731U (ja) | 1983-05-23 | 1984-12-03 | バブコツク日立株式会社 | 板状触媒水洗装置 |
JPH0336071Y2 (zh) | 1985-10-04 | 1991-07-31 | ||
JPH0227976Y2 (zh) | 1986-03-19 | 1990-07-27 | ||
JPH0313329Y2 (zh) | 1987-04-27 | 1991-03-27 | ||
US5339392A (en) | 1989-07-27 | 1994-08-16 | Risberg Jeffrey S | Apparatus and method for creation of a user definable video displayed document showing changes in real time data |
EP0855581B1 (en) | 1995-10-12 | 2003-07-09 | Yazaki Corporation | Device for calculating maldistribution of load on vehicle and device for calculating load on vehicle |
US7010336B2 (en) | 1997-08-14 | 2006-03-07 | Sensys Medical, Inc. | Measurement site dependent data preprocessing method for robust calibration and prediction |
US6085216A (en) | 1997-12-31 | 2000-07-04 | Xerox Corporation | Method and system for efficiently allocating resources for solving computationally hard problems |
JP2001318745A (ja) | 2000-05-11 | 2001-11-16 | Sony Corp | データ処理装置およびデータ処理方法、並びに記録媒体 |
US20040172401A1 (en) | 2000-06-15 | 2004-09-02 | Peace Terrence B. | Significance testing and confidence interval construction based on user-specified distributions |
US6847976B1 (en) | 2000-06-15 | 2005-01-25 | Terrence B. Peace | Method and apparatus for significance testing and confidence interval construction based on user-specified distribution |
US6832205B1 (en) | 2000-06-30 | 2004-12-14 | General Electric Company | System and method for automatically predicting the timing and costs of service events in a life cycle of a product |
US7124059B2 (en) | 2000-10-17 | 2006-10-17 | Accenture Global Services Gmbh | Managing maintenance for an item of equipment |
US6988092B1 (en) | 2000-12-28 | 2006-01-17 | Abb Research Ltd. | Method for evaluation of energy utilities |
US7043461B2 (en) | 2001-01-19 | 2006-05-09 | Genalytics, Inc. | Process and system for developing a predictive model |
US7039654B1 (en) | 2002-09-12 | 2006-05-02 | Asset Trust, Inc. | Automated bot development system |
US20030171879A1 (en) | 2002-03-08 | 2003-09-11 | Pittalwala Shabbir H. | System and method to accomplish pipeline reliability |
US7313550B2 (en) | 2002-03-27 | 2007-12-25 | Council Of Scientific & Industrial Research | Performance of artificial neural network models in the presence of instrumental noise and measurement errors |
US20070219741A1 (en) | 2005-05-20 | 2007-09-20 | Emilio Miguelanez | Methods and apparatus for hybrid outlier detection |
JP4042492B2 (ja) | 2002-08-07 | 2008-02-06 | トヨタ自動車株式会社 | エンジン制御パラメータの適合方法及び適合システム |
US20040122625A1 (en) | 2002-08-07 | 2004-06-24 | Nasser Loren A. | Apparatus and method for predicting total ownership cost |
JP4109527B2 (ja) | 2002-10-01 | 2008-07-02 | 新日本製鐵株式会社 | 制御モデルの学習方法、制御モデルの学習装置、コンピュータプログラム、及びコンピュータ読み取り可能な記憶媒体 |
US7634384B2 (en) | 2003-03-18 | 2009-12-15 | Fisher-Rosemount Systems, Inc. | Asset optimization reporting in a process plant |
US8478534B2 (en) | 2003-06-11 | 2013-07-02 | The Research Foundation For The State University Of New York | Method for detecting discriminatory data patterns in multiple sets of data and diagnosing disease |
DE10331207A1 (de) | 2003-07-10 | 2005-01-27 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Vorhersage einer Ausfall-Häufigkeit |
WO2005015476A2 (en) | 2003-08-07 | 2005-02-17 | Hsb Solomon Associates, Llc | System and method for determining equivalency factors for use in comparative performance analysis of industrial facilities |
US20050125322A1 (en) | 2003-11-21 | 2005-06-09 | General Electric Company | System, method and computer product to detect behavioral patterns related to the financial health of a business entity |
US20050131794A1 (en) | 2003-12-15 | 2005-06-16 | Lifson Kalman A. | Stock portfolio and method |
EP1548623A1 (en) | 2003-12-23 | 2005-06-29 | Sap Ag | Outlier correction |
JP4728968B2 (ja) | 2004-02-06 | 2011-07-20 | テスト アドバンテージ, インコーポレイテッド | データ解析の方法および装置 |
US9164067B2 (en) | 2004-02-13 | 2015-10-20 | Waters Technologies Corporation | System and method for tracking chemical entities in an LC/MS system |
US7469228B2 (en) | 2004-02-20 | 2008-12-23 | General Electric Company | Systems and methods for efficient frontier supplementation in multi-objective portfolio analysis |
CA2501003C (en) | 2004-04-23 | 2009-05-19 | F. Hoffmann-La Roche Ag | Sample analysis to provide characterization data |
JP2008503277A (ja) | 2004-06-21 | 2008-02-07 | オーロラ・テクノロジーズ・プロプライエタリー・リミテッド | 心臓モニタシステム |
DE102004032822A1 (de) | 2004-07-06 | 2006-03-23 | Micro-Epsilon Messtechnik Gmbh & Co Kg | Verfahren zur Verarbeitung von Messwerten |
US20060069667A1 (en) | 2004-09-30 | 2006-03-30 | Microsoft Corporation | Content evaluation |
US7536364B2 (en) | 2005-04-28 | 2009-05-19 | General Electric Company | Method and system for performing model-based multi-objective asset optimization and decision-making |
US20060247798A1 (en) | 2005-04-28 | 2006-11-02 | Subbu Rajesh V | Method and system for performing multi-objective predictive modeling, monitoring, and update for an asset |
US8195484B2 (en) | 2005-06-15 | 2012-06-05 | Hartford Steam Boiler Inspection And Insurance Company | Insurance product, rating system and method |
US7966150B2 (en) | 2005-11-17 | 2011-06-21 | Florida Power & Light Company | Data analysis applications |
US8290753B2 (en) | 2006-01-24 | 2012-10-16 | Vextec Corporation | Materials-based failure analysis in design of electronic devices, and prediction of operating life |
WO2007117233A1 (en) | 2006-04-07 | 2007-10-18 | Hsb Solomon Associates, Llc | Emission trading product and method |
US7447611B2 (en) | 2006-05-09 | 2008-11-04 | Hsb Solomon Associates, Llc | Power generation performance analysis system and method |
US20100262442A1 (en) | 2006-07-20 | 2010-10-14 | Standard Aero, Inc. | System and method of projecting aircraft maintenance costs |
EP2061374A4 (en) | 2006-08-31 | 2011-11-02 | Nonlinear Medicine Inc | AUTOMATIC NOISE REDUCTION SYSTEM FOR THE PROGNOSIS OF ARRHYTMIETOD |
WO2008033439A2 (en) * | 2006-09-13 | 2008-03-20 | Aurilab, Llc | Robust pattern recognition system and method using socratic agents |
US20080104624A1 (en) | 2006-11-01 | 2008-05-01 | Motorola, Inc. | Method and system for selection and scheduling of content outliers |
JP5116307B2 (ja) | 2007-01-04 | 2013-01-09 | ルネサスエレクトロニクス株式会社 | 集積回路装置異常検出装置、方法およびプログラム |
US8346691B1 (en) | 2007-02-20 | 2013-01-01 | Sas Institute Inc. | Computer-implemented semi-supervised learning systems and methods |
WO2008126209A1 (ja) | 2007-03-27 | 2008-10-23 | Fujitsu Limited | 重回帰分析による予測モデルの作成方法、作成装置、作成プログラム |
US20080300888A1 (en) | 2007-05-30 | 2008-12-04 | General Electric Company | Systems and Methods for Providing Risk Methodologies for Performing Supplier Design for Reliability |
US8054177B2 (en) | 2007-12-04 | 2011-11-08 | Avaya Inc. | Systems and methods for facilitating a first response mission at an incident scene using patient monitoring |
JP5003566B2 (ja) | 2008-04-01 | 2012-08-15 | 三菱電機株式会社 | ネットワーク性能予測システム、ネットワーク性能予測方法およびプログラム |
JP4991627B2 (ja) | 2008-05-16 | 2012-08-01 | 株式会社日立製作所 | 計画執行管理装置およびそのプログラム |
US8386412B2 (en) | 2008-12-12 | 2013-02-26 | At&T Intellectual Property I, L.P. | Methods and apparatus to construct histogram and wavelet synopses for probabilistic data |
US8509990B2 (en) | 2008-12-15 | 2013-08-13 | Panasonic Avionics Corporation | System and method for performing real-time data analysis |
US9111212B2 (en) | 2011-08-19 | 2015-08-18 | Hartford Steam Boiler Inspection And Insurance Company | Dynamic outlier bias reduction system and method |
JP5297855B2 (ja) | 2009-03-26 | 2013-09-25 | Dowaメタルテック株式会社 | 銅合金板材およびその製造方法 |
JP2010250674A (ja) | 2009-04-17 | 2010-11-04 | Nec Corp | 作業時間予測装置、方法、およびプログラム |
US10739741B2 (en) | 2009-06-22 | 2020-08-11 | Johnson Controls Technology Company | Systems and methods for detecting changes in energy usage in a building |
US8311772B2 (en) | 2009-12-21 | 2012-11-13 | Teradata Us, Inc. | Outlier processing |
CN102893227A (zh) | 2009-12-31 | 2013-01-23 | Abb研究有限公司 | 用于调度电厂的负载的方法和控制系统 |
JP5581965B2 (ja) | 2010-01-19 | 2014-09-03 | オムロン株式会社 | Mppt制御器、太陽電池制御装置、太陽光発電システム、mppt制御プログラム、およびmppt制御器の制御方法 |
US20110246409A1 (en) | 2010-04-05 | 2011-10-06 | Indian Statistical Institute | Data set dimensionality reduction processes and machines |
CN102081765A (zh) | 2011-01-19 | 2011-06-01 | 西安交通大学 | 输电设备状态检修的系统性控制方法 |
JP5592813B2 (ja) | 2011-01-28 | 2014-09-17 | 株式会社日立ソリューションズ東日本 | 生涯需要予測方法、プログラムおよび生涯需要予測装置 |
US9069725B2 (en) | 2011-08-19 | 2015-06-30 | Hartford Steam Boiler Inspection & Insurance Company | Dynamic outlier bias reduction system and method |
US10557840B2 (en) | 2011-08-19 | 2020-02-11 | Hartford Steam Boiler Inspection And Insurance Company | System and method for performing industrial processes across facilities |
WO2013082724A1 (en) | 2011-12-08 | 2013-06-13 | Copperleaf Technologies Inc. | Capital asset investment planning apparatus, systems and methods |
US9158303B2 (en) | 2012-03-27 | 2015-10-13 | General Electric Company | Systems and methods for improved reliability operations |
US8812331B2 (en) | 2012-04-27 | 2014-08-19 | Richard B. Jones | Insurance product, rating and credit enhancement system and method for insuring project savings |
US8686364B1 (en) | 2012-09-17 | 2014-04-01 | Jp3 Measurement, Llc | Method and system for determining energy content and detecting contaminants in a fluid stream |
EP3514700A1 (en) | 2013-02-20 | 2019-07-24 | Hartford Steam Boiler Inspection and Insurance Company | Dynamic outlier bias reduction system and method |
US9536364B2 (en) | 2013-02-25 | 2017-01-03 | GM Global Technology Operations LLC | Vehicle integration of BLE nodes to enable passive entry and passive start features |
US9646262B2 (en) | 2013-06-17 | 2017-05-09 | Purepredictive, Inc. | Data intelligence using machine learning |
KR102503653B1 (ko) | 2014-04-11 | 2023-02-24 | 하트포드 스팀 보일러 인스펙션 앤드 인슈어런스 컴퍼니 | 시스템 조작 및 수행 데이터 모델링에 기초한 미래 신뢰도 예측 개선 |
US9568519B2 (en) | 2014-05-15 | 2017-02-14 | International Business Machines Corporation | Building energy consumption forecasting procedure using ambient temperature, enthalpy, bias corrected weather forecast and outlier corrected sensor data |
WO2015179778A1 (en) | 2014-05-23 | 2015-11-26 | Datarobot | Systems and techniques for predictive data analytics |
US10452992B2 (en) | 2014-06-30 | 2019-10-22 | Amazon Technologies, Inc. | Interactive interfaces for machine learning model evaluations |
US20190050510A1 (en) | 2017-08-10 | 2019-02-14 | Clearag, Inc. | Development of complex agricultural simulation models from limited datasets |
US9996933B2 (en) | 2015-12-22 | 2018-06-12 | Qualcomm Incorporated | Methods and apparatus for outlier detection and correction of structured light depth maps |
US9760690B1 (en) | 2016-03-10 | 2017-09-12 | Siemens Healthcare Gmbh | Content-based medical image rendering based on machine learning |
JP6457421B2 (ja) | 2016-04-04 | 2019-01-23 | ファナック株式会社 | シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法 |
US10198339B2 (en) | 2016-05-16 | 2019-02-05 | Oracle International Corporation | Correlation-based analytic for time-series data |
WO2018004580A1 (en) | 2016-06-30 | 2018-01-04 | Intel Corporation | Device-based anomaly detection using random forest models |
US11429859B2 (en) | 2016-08-15 | 2022-08-30 | Cangrade, Inc. | Systems and processes for bias removal in a predictive performance model |
US20190287039A1 (en) | 2016-10-20 | 2019-09-19 | Consolidated Research, Inc. | System and method for dynamically evaluating service provider performance |
US11315045B2 (en) | 2016-12-29 | 2022-04-26 | Intel Corporation | Entropy-based weighting in random forest models |
CN107391569B (zh) | 2017-06-16 | 2020-09-15 | 阿里巴巴集团控股有限公司 | 数据类型的识别、模型训练、风险识别方法、装置及设备 |
US10638979B2 (en) | 2017-07-10 | 2020-05-05 | Glysens Incorporated | Analyte sensor data evaluation and error reduction apparatus and methods |
US10474667B2 (en) | 2017-07-29 | 2019-11-12 | Vmware, Inc | Methods and systems to detect and correct outliers in a dataset stored in a data-storage device |
JP6837949B2 (ja) | 2017-09-08 | 2021-03-03 | 株式会社日立製作所 | 予測システム及び方法 |
US20190108561A1 (en) | 2017-10-05 | 2019-04-11 | Mindtree Ltd. | Purchase Intent Determination And Real Time In-store Shopper Assistance |
EP3483797A1 (en) | 2017-11-13 | 2019-05-15 | Accenture Global Solutions Limited | Training, validating, and monitoring artificial intelligence and machine learning models |
US10521654B2 (en) | 2018-03-29 | 2019-12-31 | Fmr Llc | Recognition of handwritten characters in digital images using context-based machine learning |
WO2019204520A1 (en) * | 2018-04-17 | 2019-10-24 | VideaHealth, Inc. | Dental image feature detection |
CN109299156A (zh) | 2018-08-21 | 2019-02-01 | 平安科技(深圳)有限公司 | 电子装置、基于XGBoost的电力数据异常预测方法及存储介质 |
US12001949B2 (en) | 2018-09-05 | 2024-06-04 | Sartorius Stedim Data Analytics Ab | Computer-implemented method, computer program product and system for data analysis |
US11636292B2 (en) | 2018-09-28 | 2023-04-25 | Hartford Steam Boiler Inspection And Insurance Company | Dynamic outlier bias reduction system and method |
US20200160229A1 (en) | 2018-11-15 | 2020-05-21 | Adobe Inc. | Creating User Experiences with Behavioral Information and Machine Learning |
US11204847B2 (en) | 2018-12-21 | 2021-12-21 | Microsoft Technology Licensing, Llc | Machine learning model monitoring |
US11797550B2 (en) | 2019-01-30 | 2023-10-24 | Uptake Technologies, Inc. | Data science platform |
US11551156B2 (en) | 2019-03-26 | 2023-01-10 | Hrl Laboratories, Llc. | Systems and methods for forecast alerts with programmable human-machine hybrid ensemble learning |
US11593650B2 (en) | 2019-03-27 | 2023-02-28 | GE Precision Healthcare LLC | Determining confident data samples for machine learning models on unseen data |
US11210587B2 (en) | 2019-04-23 | 2021-12-28 | Sciencelogic, Inc. | Distributed learning anomaly detector |
US20200387836A1 (en) | 2019-06-04 | 2020-12-10 | Accenture Global Solutions Limited | Machine learning model surety |
US11354602B2 (en) | 2019-06-04 | 2022-06-07 | Bank Of America Corporation | System and methods to mitigate poisoning attacks within machine learning systems |
US20200402665A1 (en) | 2019-06-19 | 2020-12-24 | GE Precision Healthcare LLC | Unplanned readmission prediction using an interactive augmented intelligent (iai) system |
CN110378386A (zh) | 2019-06-20 | 2019-10-25 | 平安科技(深圳)有限公司 | 基于有监督的无标记异常识别方法、装置及存储介质 |
WO2020260927A1 (en) | 2019-06-24 | 2020-12-30 | Telefonaktiebolaget Lm Ericsson (Publ) | Method for detecting uncommon input |
US11954610B2 (en) | 2019-08-09 | 2024-04-09 | GE Precision Healthcare LLC | Active surveillance and learning for machine learning model authoring and deployment |
CN110458374A (zh) | 2019-08-23 | 2019-11-15 | 山东浪潮通软信息科技有限公司 | 一种基于arima和svm的企业用电最大需量预测方法 |
CN110411957B (zh) | 2019-08-28 | 2021-11-19 | 北京农业质量标准与检测技术研究中心 | 水果货架期及新鲜程度的无损快速预测方法及装置 |
CN110543618A (zh) | 2019-09-05 | 2019-12-06 | 上海应用技术大学 | 基于概率密度函数估计的圆度不确定度评定方法 |
US11829800B2 (en) | 2019-11-06 | 2023-11-28 | Centurylink Intellectual Property Llc | Predictive resource allocation in an edge computing network utilizing machine learning |
CN110909822B (zh) | 2019-12-03 | 2022-11-11 | 中国科学院微小卫星创新研究院 | 一种基于改进的高斯过程回归模型的卫星异常检测方法 |
CN111080502B (zh) | 2019-12-17 | 2023-09-08 | 清华苏州环境创新研究院 | 一种区域企业数据异常行为的大数据识别方法 |
CN111157698B (zh) | 2019-12-24 | 2022-10-21 | 核工业北京地质研究院 | 一种利用发射率数据获取黑土土壤全钾含量的反演方法 |
CN111709447A (zh) | 2020-05-14 | 2020-09-25 | 中国电力科学研究院有限公司 | 电网异常检测方法、装置、计算机设备和存储介质 |
US11007891B1 (en) | 2020-10-01 | 2021-05-18 | Electricfish Energy Inc. | Fast electric vehicle charging and distributed grid resource adequacy management system |
CN112257963B (zh) | 2020-11-20 | 2023-08-29 | 北京轩宇信息技术有限公司 | 基于航天软件缺陷数据分布离群点的缺陷预测方法及装置 |
-
2020
- 2020-09-18 EP EP20785887.9A patent/EP4022532A1/en not_active Withdrawn
- 2020-09-18 GB GB2204238.6A patent/GB2603358B/en active Active
- 2020-09-18 WO PCT/US2020/051627 patent/WO2021055847A1/en active Application Filing
- 2020-09-18 CA CA3154671A patent/CA3154671A1/en not_active Abandoned
- 2020-09-18 GB GB2310398.9A patent/GB2617045B/en active Active
- 2020-09-18 BR BR112022005003A patent/BR112022005003A2/pt unknown
- 2020-09-18 CN CN202080072815.4A patent/CN114556382A/zh active Pending
- 2020-09-18 GB GBGB2402945.6A patent/GB202402945D0/en active Pending
- 2020-09-18 US US17/025,889 patent/US11288602B2/en active Active
- 2020-09-18 JP JP2022517214A patent/JP7399269B2/ja active Active
- 2020-09-18 KR KR1020227012917A patent/KR20220066924A/ko unknown
-
2021
- 2021-03-18 MX MX2023003217A patent/MX2023003217A/es unknown
- 2021-03-18 WO PCT/US2021/022861 patent/WO2022060411A1/en active Application Filing
- 2021-03-18 CA CA3195894A patent/CA3195894A1/en active Pending
- 2021-03-18 DE DE112021004908.9T patent/DE112021004908T5/de active Pending
- 2021-03-18 KR KR1020237013175A patent/KR20230070272A/ko unknown
- 2021-03-18 EP EP21718320.1A patent/EP4214652A1/en active Pending
- 2021-03-18 NO NO20230419A patent/NO20230419A1/en unknown
- 2021-03-18 CN CN202180074814.8A patent/CN116569189A/zh active Pending
- 2021-03-18 GB GB2305640.1A patent/GB2614849A/en active Pending
- 2021-03-18 AU AU2021343372A patent/AU2021343372A1/en active Pending
-
2023
- 2023-12-05 JP JP2023205241A patent/JP2024026276A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2022548654A (ja) | 2022-11-21 |
AU2021343372A1 (en) | 2023-05-04 |
US11288602B2 (en) | 2022-03-29 |
GB2617045B (en) | 2024-05-01 |
GB2603358A (en) | 2022-08-03 |
US20210110313A1 (en) | 2021-04-15 |
WO2021055847A1 (en) | 2021-03-25 |
KR20220066924A (ko) | 2022-05-24 |
GB202204238D0 (en) | 2022-05-11 |
JP7399269B2 (ja) | 2023-12-15 |
CN114556382A (zh) | 2022-05-27 |
JP2024026276A (ja) | 2024-02-28 |
CA3154671A1 (en) | 2021-03-25 |
MX2023003217A (es) | 2023-06-22 |
BR112022005003A2 (pt) | 2022-09-06 |
EP4022532A1 (en) | 2022-07-06 |
WO2022060411A1 (en) | 2022-03-24 |
CA3195894A1 (en) | 2022-03-24 |
GB2617045A (en) | 2023-09-27 |
DE112021004908T5 (de) | 2023-07-06 |
NO20230419A1 (en) | 2023-04-18 |
GB2614849A (en) | 2023-07-19 |
GB202305640D0 (en) | 2023-05-31 |
EP4214652A1 (en) | 2023-07-26 |
GB2603358B (en) | 2023-08-30 |
KR20230070272A (ko) | 2023-05-22 |
GB202402945D0 (en) | 2024-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288602B2 (en) | Computer-based systems, computing components and computing objects configured to implement dynamic outlier bias reduction in machine learning models | |
US11914680B2 (en) | Computer-based systems, computing components and computing objects configured to implement dynamic outlier bias reduction in machine learning models | |
Bilal et al. | Big Data in the construction industry: A review of present status, opportunities, and future trends | |
US11615348B2 (en) | Computer-based systems, computing components and computing objects configured to implement dynamic outlier bias reduction in machine learning models | |
US8364613B1 (en) | Hosting predictive models | |
WO2019015631A1 (zh) | 生成机器学习样本的组合特征的方法及系统 | |
Yi et al. | Intelligent prediction of transmission line project cost based on least squares support vector machine optimized by particle swarm optimization | |
Stødle et al. | Data‐driven predictive modeling in risk assessment: Challenges and directions for proper uncertainty representation | |
Zhang et al. | E‐Commerce Information System Management Based on Data Mining and Neural Network Algorithms | |
Li et al. | Research on the application of multimedia entropy method in data mining of retail business | |
US11531907B2 (en) | Automated control of a manufacturing process | |
RU2813245C1 (ru) | Компьютерные системы, вычислительные компоненты и вычислительные объекты, выполненные с возможностью реализации уменьшения обусловленного выбросовыми значениями динамического отклонения в моделях машинного обучения | |
JP2024504179A (ja) | 人工知能推論モデルを軽量化する方法およびシステム | |
US11734157B2 (en) | Systems with software engines configured for detection of high impact scenarios with machine learning-based simulation and methods of use thereof | |
Lei et al. | Advertising Click‐Through Rate Prediction Model Based on an Attention Mechanism and a Neural Network | |
US20230195842A1 (en) | Automated feature engineering for predictive modeling using deep reinforcement learning | |
US20220277327A1 (en) | Computer-based systems for data distribution allocation utilizing machine learning models and methods of use thereof | |
US20220343190A1 (en) | Systems for automatic detection, rating and recommendation of entity records and methods of use thereof | |
Li et al. | Correlation Analysis of Network Big Data and Film Time‐Series Data Based on Machine Learning Algorithm | |
WO2024123664A1 (en) | Confusion matrix estimation in distributed computation environments | |
CN118200168A (zh) | 网络流量预测方法、装置、计算机设备和存储介质 | |
CN117237009A (zh) | 权益推送风险预警方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40096061 Country of ref document: HK |