CN113490956B - 解析装置、解析方法以及解析程序 - Google Patents

解析装置、解析方法以及解析程序 Download PDF

Info

Publication number
CN113490956B
CN113490956B CN202080005675.9A CN202080005675A CN113490956B CN 113490956 B CN113490956 B CN 113490956B CN 202080005675 A CN202080005675 A CN 202080005675A CN 113490956 B CN113490956 B CN 113490956B
Authority
CN
China
Prior art keywords
learning
algorithms
learning model
loss function
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080005675.9A
Other languages
English (en)
Other versions
CN113490956A (zh
Inventor
洼田望
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202210750874.3A priority Critical patent/CN115271091A/zh
Priority to CN202110609294.8A priority patent/CN113469368A/zh
Publication of CN113490956A publication Critical patent/CN113490956A/zh
Application granted granted Critical
Publication of CN113490956B publication Critical patent/CN113490956B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/20Models of quantum computing, e.g. quantum circuits or universal quantum computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供预测利用多个算法进行了学习处理时的学习模型的性能的解析装置、解析方法以及解析程序。解析装置(10)使用通过将表示针对规定问题设定的第一损失函数的全局形状的第一形状信息和学习模型的性能作为学习数据的监督学习生成的预测模型,并根据针对新问题设定第二损失函数的全局形状的第二形状信息,针对多个算法分别预测以减小第二损失函数的值的方式执行学习模型的机器学习时的学习模型的性能。

Description

解析装置、解析方法以及解析程序
技术领域
本发明涉及解析装置、解析方法以及解析程序。
背景技术
近年来,不断尝试在各种问题中应用所谓的人工智能。例如,在下述专利文献1中,记载了以用于解决各种现实情况中的问题为目的的模型选择装置。
在先技术文献
专利文献
专利文献1:日本特开2019-220063号公报
发明内容
发明所要解决的技术问题
但是,用于进行学习模型的学习处理的算法已知有多种,如果不根据问题适当地选择学习处理的算法,则有时无法充分地发挥学习模型的性能。通常是根据设定学习模型的人的经验对规定的问题使用规定的算法,不存在进行所选择的算法是否适当的性能评价的方法。
因此,本发明提供预测以多个算法进行了学习处理时的学习模型的性能的解析装置、解析方法以及解析程序。
用于解决课题的技术方案
本发明的一方式涉及的解析装置具备:学习部,使用多个算法,以缩小针对规定的问题设定的第一损失函数的值的方式分别进行规定的学习模型的机器学习;计算部,根据所述机器学习,针对每个算法计算表示第一损失函数的全局形状的第一形状信息和学习模型的性能;获取部,使用多个算法中的至少任意一个由学习部执行使针对新问题设定的第二损失函数的值变小这样的机器学习,获取表示由计算部算出的第二损失函数的全局形状的第二形状信息;以及预测部,使用通过将第一形状信息和学习模型的性能作为学习数据的监督学习而生成的预测模型,根据第二形状信息,针对多个算法分别预测以减小第二损失函数的值的方式执行学习模型的机器学习时的学习模型的性能。
根据本方式,可以通过使用多个算法中的至少一个算法执行学习模型的机器学习,从而预测使用其他算法执行学习模型的机器学习时得到的学习模型的性能。
根据本发明,能够提供预测利用多个算法进行了学习处理时的学习模型的性能的解析装置、解析方法以及解析程序。
附图说明
图1是表示本发明的第一实施方式涉及的解析装置的功能块的图。
图2是表示该实施方式涉及的解析装置的物理构成的图。
图3是表示通过该实施方式涉及的解析装置进行了学习处理的学习模型的性能的图。
图4是表示通过该实施方式涉及的解析装置计算出的形状信息的图。
图5是表示通过该实施方式涉及的解析装置计算出的学习数据的图。
图6是通过该实施方式涉及的解析装置执行的预测处理的流程图。
图7是通过该实施方式涉及的解析装置执行的预测模型生成处理的流程图。
图8是表示通过该实施方式涉及的解析装置进行了学习处理的学习模型的性能的图。
图9是表示通过该实施方式涉及的解析装置显示的超参数调整画面的图。
图10是通过该实施方式涉及的解析装置执行的预测处理的流程图。
图11是表示第二实施方式涉及的解析装置的功能块的图。
图12是表示在该实施方式中学习模型的机器学习中使用的、规定品牌的股价的价格变动数据的图。
图13是表示该实施方式涉及的解析装置进行的机器学习中使用的、强化学习算法和最优化算法的图。
图14是表示该实施方式涉及的推测模型生成部生成的推测模型的一例的图。
图15是表示通过该实施方式涉及的解析装置执行的推测处理的一例的流程图。
图16是表示通过该实施方式涉及的解析装置执行的推测模型生成处理的一例的流程图。
具体实施方式
参照附图,对本发明的实施方式进行说明。需要说明的是,在各图中,标注了相同附图标记的部件具有相同或等同的构成。
[第一实施方式]
图1是表示本发明的第一实施方式涉及的解析装置10的功能块的一例的图。解析装置10具备学习部11、计算部12、获取部13、预测部14、存储部15以及生成部16。解析装置10也可以由通用的计算机构成。
学习部11使用多个算法,以缩小针对规定的问题所设定的第一损失函数的值的方式分别进行规定的学习模型的机器学习。这里,规定的问题包括例如对图像数据、序列数据以及文本数据中的至少任意一个进行分类、生成以及优化中的至少任意一个的问题。这里,图像数据包含静态图像的数据和动态图像的数据。序列数据包含语音数据、股价的数据。另外,规定的学习模型包括图像识别模型、序列数据解析模型、机器人的控制模型、强化学习模型、语音识别模型、语音生成模型、图像生成模型、自然语言处理模型等,例如是CNN(Convolutional Neural Network:卷积神经网络)、RNN(Recurrent Neural Network:循环神经网络)、LSTM(Long Short-Term Memory:长短期记忆网络)、双向LSTM、DQN(Deep Q-Network)、VAE(Variational Auto Encoder:变分自编码器)、GANs(GenerativeAdversarial Networks:生成对抗网络)、WaveNet、BERT(Bidirectional EncoderRepresentations from Transformers:)、Word2Vec、随机森林、支持向量机、逻辑回归、梯度提升决策树以及主成分分析等中的任意一个,包括其他可应用于学习的模型。
另外,学习模型包含对已有的已学习模型进行剪枝(Pruning)、量化(Quantization)、蒸馏(Distillation)或者转移(Transfer)而得到的模型。此外,这些只不过是一例,学习部11也可以针对这些以外的问题进行学习模型的机器学习。
另外,多个算法是进行学习模型12a的机器学习的算法,在学习模型12a包含神经网络的情况下,可以是通过误差反向传播法对神经网络的参数进行更新、优化的算法。多个算法包括随机梯度下降法(stochastic gradient descent:SGD)、动量SGD、AdaGrad、RMSProp、AdaDelta以及ADAM等。另外,多个算法包括通过量子门方式或量子退火方式的量子计算机更新学习模型12a的参数的算法。例如,在通过由多个弱学习器组合而成的一个强学习器构成学习模型12a的情况下,可以使用Hartmut Neven,Vasil S.Denchev,GeordieRose,William G.Macready,"QBoost:Large Scale Classifier Trainingwith AdiabaticQuantum Optimization”,Proceedings of the Asian Conference on MachineLearning,PMLR 25:333-348,2012.中记载的算法。另外,也可以使用Jacob Biamonte,Peter Wittek,Nicola Pancotti,Patrick Rebentrost,Nathan Wiebe and Seth Lloyd,“Quantum Machine Learning”,Nature volume 549,pages 195-202,2017.中记载的算法。另外,多个算法包括XGBoost、LightGBM、装袋(bagging)(并行学习的算法)、提升(将之前的弱学习器的学习结果反映到下一个学习数据中的算法)以及堆叠(在两个阶段中积累学习的算法)。另外,多个算法包括下述参考文献1中记载的“自适应批量搜索”的算法。
(参考文献1):“GPUの計算能力を最大限活用する組合せ最適化問題の新解法~1兆探索/秒を超えるアダプティブ·バルク·サーチ(最大限度有效利用GPU的计算能力的组合优化问题的新解法~超过1兆搜索/秒的自适应批量搜索)”、[online]、[2020年8月25日检索]、<https://www.hiroshima-u.ac.jp/news/59579>
此外,这些只不过是一例,多个算法也可以包含这些以外的算法。另外,量子计算机可以是由超导线路构成量子位元的计算机、由离子阱构成量子位元的计算机、由量子点构成量子位元的计算机、或者由光路构成量子位元的计算机,硬件构成是任意的。进而,多个算法也可以包含通过量子计算机和古典计算机的混合型计算机更新学习模型12a的参数的算法。
计算部12根据机器学习,针对每个算法计算表示第一损失函数的全局形状的第一形状信息和学习模型12a的性能。
针对规定的问题所设定的第一损失函数可以是与学习模型12a的输出和标签数据相关的平方误差函数、或者交叉熵函数。在将学习模型12a所包含的多个参数表示为θ时,第一损失函数表示为与多个参数θ相关的函数L(θ)。在本说明书中,将函数L(θ)的值称为表示第一损失函数的全局形状的第一形状信息。例如,计算部12根据学习模型12a的机器学习,记录相对于参数θ的函数L(θ)的值,并计算表示第一损失函数的全局形状的第一形状信息L(θ)。
另外,学习模型12a的性能例如可以用F值表示、或者用F值/(学习处理的计算时间)表示、或者用第一损失函数的值表示。此外,F值是在将精确率(precision)表示为P、将召回率(recal1)表示为R时通过2PR/(P+R)算出的值。另外,学习模型12a的性能也可以使用例如ME(平均误差)、MAE(平均绝对误差)、RMSE(均方根误差)、MPE(平均百分比误差)、MAPE(平均绝对百分比误差)、RMSPE(均方根百分比误差)、ROC(Receiver OperatingCharacteristic:接受者操作特征)曲线以及AUC(Area Under the Curve:曲线下面积)、Gini Norm、Kolmogorov-Smirnov或者Precision/Recall等表示。计算部12根据学习模型12a的机器学习,计算以F值等表示的学习模型12a的性能。
学习部11也可以针对学习模型12a的参数设定多个初始值,并使用多个算法以使第一损失函数的值变小的方式单独执行或者并行执行规定的学习模型12a的机器学习。在并行执行的情况下,计算部12根据机器学习,针对每个算法并行地计算第一形状信息和学习模型12a的性能。
针对学习模型12a的参数设定多个初始值的理由是,通过使用多个初始值执行学习模型12a的机器学习,能够减小与损失函数的极小值对应的参数被选择的可能性。由此,可以提高能够选择全局最佳的与损失函数的最小值对应的参数的概率。另外,在针对多个初始值分别并行执行学习模型12a的机器学习的情况下,能够更高速地求出全局最优解。
获取部13使用多个算法中的至少任意一个由学习部11执行使针对新问题所设定的第二损失函数的值变小这样的机器学习,获取表示由计算部12算出的第二损失函数的全局形状的第二形状信息。在此,新问题包括针对图像数据、序列数据以及文本数据中的至少任意一个进行分类、生成以及优化中的至少任意一个的问题。另外,第二损失函数可以是与学习模型12a的输出和标签数据相关的平方误差函数、或者交叉熵函数,第二形状信息可以是与多个参数θ相关的第二损失函数的函数形式L(θ)。
预测部14使用通过将第一形状信息及学习模型12a的性能作为学习数据的监督学习而生成的预测模型14a。另外,预测部14使用该预测模型14a并根据第二形状信息,针对多个算法分别预测以减小第二损失函数的值的方式执行了学习模型12a的机器学习时的学习模型12a的性能。例如,预测部14通过向预测模型14a输入规定算法的第二形状信息,从而针对包括其他算法的多个算法分别输出执行了机器学习时的学习模型12a的性能。
当针对新问题,通过试错来决定使用哪个算法能够适当地发挥学习模型12a的性能时,有时算法的选定需要时间。根据本实施方式涉及的解析装置10,可以通过使用多个算法中的至少一个算法执行学习模型12a的机器学习,从而预测使用其他算法执行学习模型12a的机器学习时得到的学习模型12a的性能。因此,在提出了新问题的情况下,能够迅速地决定应该使用哪个算法,从而能够适当地发挥学习模型12a的性能。
学习部11也可以使用包含一个或多个超参数的多个算法减小第一损失函数的值,使用多个最优化算法将一个或多个超参数最优化,从而分别进行规定的学习模型12a的机器学习。该情况下,计算部12根据机器学习,按照多个最优化算法计算表示第一损失函数的全局形状的第一形状信息和学习模型12a的性能。在此,超参数在例如算法为SGD的情况下包含学习系数。关于其他的算法,也同样地设定学习系数、动量系数这样的高参数。另外,多个最优化算法例如包括随机搜索、贝叶斯优化、CMA-ES、坐标下降法、内尔德-米德(Nelder-Mead)法、粒子群优化以及遗传算法等。学习部11在针对多个算法使用将一个或多个参数优化的最优化算法的情况下,预测执行了学习模型12a的机器学习时的学习模型12a的性能。由此,不仅能够预测应选择多个算法中的哪一个,还能够预测应使用怎样的超参数的优化法,从而能够缩短超参数调整所需的时间。
存储部15存储包含第一形状信息及学习模型12a的性能的学习数据15a。学习数据15a包含:表示通过某一算法执行了学习模型12a的机器学习时的损失函数的全局形状的第一形状信息、和作为该机器学习的结果而得到的学习模型12a的性能。
生成部16通过使用了学习数据15a的监督学习生成预测模型14a。预测模型14a例如是由神经网络构成,并将表示针对新问题设定的第二损失函数的全局形状的第二形状信息作为输入,预测使用多个算法以使针对新问题设定的第二损失函数的值变小的方式执行了学习模型12a的机器学习时的学习模型12a的性能。
图2是表示本实施方式涉及的解析装置10的物理构成的一例的图。解析装置10具有相当于运算部的CPU(Central Processing Unit:中央处理器)10a、相当于存储部的RAM(Random Access Memory:随机存取存储器)10b、相当于存储部的ROM(Read only Memory:只读存储器)10c、通信部10d、输入部10e以及显示部10f。这些各构成通过总线以能够相互进行数据收发的方式连接。此外,在本例中,对解析装置10由一台计算机构成的情况进行说明,但解析装置10也可以将多个计算机或多个运算部组合而实现。另外,图2所示的构成是一个例子,解析装置10可以具有这些以外的构成,也可以不具有这些构成中的一部分。
CPUl0a是进行与存储于RAM10b或ROM10c中的程序的执行相关的控制或数据的运算、加工的控制部。CPU10a是执行程序(解析程序)的运算部,该程序(解析程序)是针对多个算法分别预测使用多个算法以使针对新问题设定的第二损失函数的值减小的方式执行了学习模型的机器学习时的学习模型的性能的程序。CPU10a从输入部10e和通信部10d接收各种数据,并将数据的运算结果显示在显示部10f中、或者存储在RAM10b中。
RAM10b是存储部中能够改写数据的部分,例如可以由半导体存储元件构成。RAM10b可以存储CPU10a执行的程序、包含针对规定的问题所设定的损失函数的全局形状和学习模型的性能的学习数据等的数据。此外,这些为例示,RAM10b中也可以存储这些以外的数据,还可以不存储这些中的一部分。
ROM10c是存储部中能够读出数据的部分,例如可以由半导体存储元件构成。ROM10c例如可以存储解析程序、不改写的数据。
通信部10d是连接解析装置10与其他设备的接口。通信部10d可以与因特网等的通信网络连接。
输入部10e受理用户的数据输入,例如可以包括键盘和触摸面板。
显示部10f视觉性地显示CPU10a的运算结果,例如可以由LCD(Liquid CrystalDisplay:液晶显示器)构成。
显示部10f显示运算结果有助于XAI(eXplainable AI:可解释的AI)。显示部10f例如可以显示损失函数的全局形状。
解析程序可以存储在RAM10b或ROM10c等计算机可读的存储介质中进行提供,也可以经由通过通信部10d连接的通信网络进行提供。在解析装置10中,通过由CPU10a执行解析程序,从而实现使用图1所说明的各种动作。此外,这些物理构成为例示,并非一定是独立的构成。例如,解析装置10也可以具备CPU10a与RAM10b或ROM10c一体化的LSI(Large-ScaleIntegration:大规模集成电路)。另外,解析装置10也可以具备GPU(Graphical ProcessingUnit:图形处理器)、ASIC(Application Specific Integrated Circuit:专用集成电路)。
图3是表示通过本实施方式涉及的解析装置10进行了学习处理的学习模型的性能的一例的图。在该图中,示出使用SGD、动量SGD(Momentum SGD)、AdaGrad、RMSProp、AdaDelta、ADAM、量子门方式以及量子退火方式等的算法,并分别通过随机搜索(RandomSearch)、贝叶斯优化(Bayesian Optimization)、CMA-ES、坐标下降法(CoordinateSearch)以及内尔德-米德法(Nelder-Mead)对一个或多个参数进行了优化时的学习模型的性能。例如,a1~a5是表示使用SGD作为算法,并通过随机搜索、贝叶斯优化、CMA-ES、坐标下降法或者内尔德-米德法对一个或多个超参数进行了优化时的学习模型的性能的数值。另外,b1~b5、c1~c5、d1~d5、e1~e5、f1~f5、g1~g5以及h1~h5同样是表示学习模型的性能的数值。
图4是表示通过本实施方式涉及的解析装置10算出的形状信息的一例的图。在该图中,为了简便,作为学习模型的参数而示出了θ1和θ2,并示出了损失函数的值L(θ)。如该图所示,损失函数的全局形状包含多个极小值点,最小值点有时很难探索。本实施方式涉及的解析装置10将这样的损失函数的全局形状作为学习模型和学习算法的特征量,根据损失函数的全局形状预测使用多个算法进行了学习模型的学习处理时的学习模型的性能。
图5是表示通过本实施方式涉及的解析装置10算出的学习数据的一例的图。该图中针对SGD、动量SGD(Momentum SGD)、AdaGrad、RMSProp、AdaDelta、ADAM、量子门方式以及量子退火方式等的算法,示出了第一形状信息和学习模型的性能。例如,La(θ)表示使用SGD作为算法时的第一形状信息,Sa是表示使用SGD作为算法时的学习模型的性能的数值。同样,Lb(θ)、Lc(θ)、Ld(θ)、Le(θ)、Lf(θ)、Lg(θ)以及Lh(θ)是表示使用AdaGrad、RMSProp、AdaDelta、ADAM、量子门方式或者量子退火方式作为算法时的第一形状信息。另外,Sb、Sc、Sd、Se、Sf、Sg以及Sh是表示使用AdaGrad、RMSProp、AdaDelta、ADAM、量子门方式或者量子退火方式作为算法时的学习模型的性能的数值。此外,如图3所示,学习模型的性能也可以按照超参数的最优化算法进行计算,将它们作为学习数据。
图6是表示通过本实施方式涉及的解析装置10执行的预测处理的一例的流程图。首先,解析装置10从其他的信息处理装置受理规定的问题及规定的学习模型的指定(S10)。规定的问题及规定的学习模型的指定可以由用户输入。
接着,解析装置10针对学习模型的参数设定多个初始值(S11),并使用包含一个或多个超参数的多个算法减小第一损失函数的值,使用多个最优化算法对一个或多个超参数进行优化,从而分别并行执行规定的学习模型的机器学习(S12)。
另外,解析装置10根据机器学习,针对每个算法并行地计算表示第一损失函数的全局形状的第一形状信息和学习模型的性能(S13)。而且,解析装置10将第一形状信息及学习模型的性能作为学习数据存储在存储部15中(S14)。
然后,解析装置10从其他的信息处理装置受理新问题的指定(S15)。新问题的指定可以由用户输入。
解析装置10使用多个算法中的至少任意一个由学习部11执行使针对新问题所设定的第二损失函数的值变小这样的机器学习,获取表示由计算部12算出的第二损失函数的全局形状的第二形状信息(S16)。然后,解析装置10使用预测模型并根据第二形状信息,针对多个算法分别预测以减小第二损失函数的值的方式执行了学习模型的机器学习时的学习模型的性能(S17)。
图7是表示通过本实施方式涉及的解析装置10执行的预测模型生成处理的一例的流程图。首先,解析装置10获取包含第一形状信息和学习模型的性能的学习数据(S20)。此外,学习数据也可以经由因特网等的通信网络从外部存储装置获取。
然后,解析装置10通过使用了学习数据的监督学习生成预测模型,该预测模型用于根据第二形状信息,针对多个算法分别预测以减小第二损失函数的值的方式执行了学习模型的机器学习时的学习模型的性能(S21)。而且,解析装置10将所生成的预测模型加以存储。
图8是表示通过本实施方式涉及的解析装置10进行了学习处理的学习模型的性能的图。在该图中,示出了使用层次聚类、非层次聚类、主题模型、自组织映射、关联分析、协同过滤、典型相关分析、量子门方式以及量子退火方式等的无监督学习对学习数据进行分类,并应用与分类对应的预处理算法,分别通过随机搜索(Random Search)、贝叶斯优化(Bayesian Optimization)、CMA-ES、坐标下降法(Coordinate Search)以及内尔德-米德法(Nelder-Mead)对一个或多个超参数进行了优化时的学习模型的性能。G1~G5是表示作为无监督学习使用分层型聚类,并通过随机搜索、贝叶斯优化、CMA-ES、坐标下降法或者内尔德-米德法对分层型聚类中包含的一个或多个超参数进行了优化时的学习模型的性能的数值。另外,G6~G45同样是表示学习模型的性能的数值。
学习部11使用包含一个或多个超参数的多个预处理算法进行机器学习中使用的学习数据的预处理,使用多个算法减小第一损失函数的值,使用多个最优化算法对一个或多个超参数进行优化,针对规定的学习模型分别进行使用了预处理后的学习数据的机器学习。然后,计算部12根据使用了预处理后的学习数据的机器学习,按照多个预处理算法计算表示第一损失函数的全局形状的第一形状信息和学习模型的性能。
多个预处理算法可以包括缺失值处理、离群值的对应、连续值的离散化、数据操作、降维、独热矢量化、数据扩展、特征工程以及分箱。多个预处理算法包括使用无监督学习对学习数据进行分类,并进行与分类相应的预处理的算法。即,多个预处理算法包括使用层次聚类、非层次聚类、主题模型、自组织映射、关联分析、协同过滤、典型相关分析、量子门方式以及量子退火方式等的无监督学习对学习数据进行分类,根据分类进行缺失值处理、解释变量的优化、独热矢量化以及分箱中的至少任意一个的算法。
图9是表示通过本实施方式涉及的解析装置10显示的超参数调整画面的图。在该图中,显示有用于调整学习算法的超参数的滑动条和用于调整预处理算法的超参数的滑动条,并以纵轴数值表示学习算法的种类,横轴数值表示预处理算法的种类的方式示出了(L-损失函数)的值的热图。在此,L是损失函数的最大值。此外,(L-损失函数)的值是表示学习模型的性能的值的一例,解析装置10也可以代替损失函数的值的热图而显示表示学习模型的性能的F值或F值/(学习处理的计算时间)的热图。
解析装置10以能够调整的方式显示多个算法所包含的一个或多个超参数、和多个预处理算法所包含的一个或多个超参数,并针对多个算法及多个预处理算法分别显示学习模型的性能。解析装置10的用户通过在调整学习算法的超参数和预处理算法的超参数的同时,确认通过热图所示的损失函数的值最小的点(最大似然点),并选择与该点对应的学习算法及预处理算法,从而能够高效地从多个学习算法及多个预处理算法中选择最佳的算法。
图10是通过本实施方式涉及的解析装置10执行的预测处理的流程图。首先,解析装置10受理学习算法的超参数的指定和预处理算法的超参数的指定(S30)。
然后,解析装置10使用无监督学习对学习数据进行分类(S31)。然后,解析装置10使用包含一个或多个超参数的多个预处理算法进行机器学习中使用的学习数据的预处理,使用多个算法减小第一损失函数的值,使用多个最优化算法对一个或多个超参数进行优化,针对规定的学习模型分别进行使用了预处理后的学习数据的机器学习(S32)。
解析装置10根据使用了预处理后的学习数据的机器学习,按照多个预处理算法计算表示第一损失函数的全局形状的第一形状信息和学习模型的性能(S33)。然后,解析装置10将第一形状信息及学习模型的性能作为学习数据加以存储(S34)。
然后,解析装置10受理新问题的指定(S35)。然后,解析装置10使用多个预处理算法中的至少任意一个由学习部执行使针对新问题所设定的第二损失函数的值变小这样的机器学习,获取表示由计算部算出的第二损失函数的全局形状的第二形状信息(S36)。
最后,解析装置10使用预测模型并根据第二形状信息,针对多个预处理算法分别预测以使第二损失函数的值变小的方式执行了学习模型的机器学习时的学习模型的性能(S37)。
以上说明的实施方式是为了便于理解本发明,并非用于限定解释本发明。实施方式所具备的各要素及其配置、材料、条件、形状及尺寸等不限定于例示内容,能够适当地变更。另外,能够将不同的实施方式中示出的构成彼此部分地置换或组合。
[第二实施方式]
在第二实施方式中,主要对与第一实施方式不同的点进行说明,适当地省略与第一实施方式实质上相同的内容进行说明。此外,在第二实施方式中,可以应用第一实施方式中已说明的各种构成。
图11是表示第二实施方式涉及的解析装置20的功能块的图。第二实施方式涉及的解析装置20具备学习部21、计算部22、获取部23、推测部24、存储部25以及推测模型生成部26。第二实施方式涉及的解析装置20取代第一实施方式涉及的解析装置10所具备的预测部14而具备推测部24,取代第一实施方式涉及的生成部16而具备推测模型生成部26。此外,第二实施方式涉及的解析装置20所具备的学习部21、计算部22、获取部23以及存储部25的功能也可以至少具有第一实施方式涉及的解析装置10所具备的对应功能部的功能。
第二实施方式涉及的算法例如是强化学习算法。学习部21使用多个最优化算法对多个强化学习算法分别包含的一个或多个超参数进行优化,并使用包含被优化的一个或多个超参数的多个强化学习算法分别进行规定的学习模型的机器学习。
具体而言,学习部21使用多个强化学习算法,根据针对规定问题设定的训练数据进行规定的学习模型的机器学习。在本实施方式中,学习部21例如将股价的价格变动数据用作训练数据,以使代理所能得到的报酬最大化的方式进行学习模型的机器学习。此外,在机器学习中,除了价格变动数据之外,例如也可以使用各种新闻和社交数据(例如,与品牌的评判相关的信息等)等。在本实施方式中,强化学习中的代理的行动例如是股票的买卖交易(具体为股票的买入、卖出、持仓等),报酬是股票的买卖交易带来的利益,报酬的最大化相当于收益率的最大化。此时,学习部21可以以规定时间为单位,例如以1μs为单位进行学习模型的机器学习。
计算部22使用针对规定问题所设定的测试数据计算学习模型的性能。在本实施方式中,测试数据例如可以包含股价的价格变动数据。性能例如也可以是使用训练数据评价学习模型时得到的收益率等。
存储部25存储机器学习中使用的数据(训练数据及测试数据等,例如价格变动数据)、强化学习算法以及最优化算法等。另外,存储部25存储包含训练数据以及强化学习算法和最优化算法的组合的学习数据25a。
推测模型生成部26通过使用了学习数据的监督学习,生成推测与新问题对应的强化学习算法和最优化算法的组合的推测模型。具体而言,推测模型生成部26通过进行将训练数据和基于学习模型的性能而选择的算法和最优化算法的组合作为学习数据的监督学习,从而生成用于推测与新问题对应的算法和最优化算法的组合的推测模型。用作学习数据的算法和最优化算法的组合(以下也称为“强化策略”。)可以根据学习模型的性能来选择。例如,针对所设定的问题最佳的强化策略可以作为学习数据通过推测模型生成部26选择。
推测部24使用推测模型24a并根据针对新问题设定的设定数据,推测与新问题对应的强化学习算法和最优化算法的组合。在此,针对新问题设定的设定数据例如可以是未用于机器学习的新的股价的价格变动数据。
另外,第二实施方式涉及的解析装置20具备与第一实施方式涉及的解析装置10所具备的图2所示的物理构成实质上相同的物理构成。在此,对第二实施方式涉及的解析装置20所具备的物理构成与第一实施方式涉及的解析装置10所具备的物理构成之间的不同点简单进行说明。
第二实施方式涉及的CPU10a是执行利用多个最优化算法对多个算法分别包含的一个或多个超参数进行优化,使用多个算法执行规定的学习模型的机器学习,并针对每个算法和所述最优化算法计算学习模型的性能的程序(分析程序)的运算部。
另外,第二实施方式涉及的RAM10b可以存储由CPU10a执行的程序、训练数据、测试数据、以及强化学习算法和最优化算法的组合等的数据。此外,这些为例示,RAM10b中也可以存储这些以外的数据,还可以不存储这些中的一部分。另外,第二实施方式涉及的显示部10f例如可以显示推测模型的推测结果等。
图12是表示在本实施方式中学习模型的机器学习中使用的、规定品牌中的股价的价格变动数据的图。价格变动数据例如是以1天为单位而变动的股价的数据,且为2019年的1月至12月的数据。在本实施方式中,例如使用保持法等,将价格变动数据分割为训练数据和测试数据。例如,可以将从2019年1月初至6月末的价格变动数据作为训练数据,将从2019年7月初至12月末的价格变动数据作为测试数据。
图13是表示本实施方式涉及的解析装置20进行的机器学习中使用的、强化学习算法和最优化算法的图。如该图所示,在本实施方式中,使用海龟交易代理(Turtle Tradingagent)、移动平均代理(Moving Average agent)、信号滚动代理(Signal Rolling agent)、策略梯度代理(Policy Gradient agent)、Q学习代理(Q-learning agent)、进化策略代理(Evolution Strategy agent)、双重Q学习代理(Double Q-learning agent)、循环Q学习代理(Recurrent Q-learning agent)、双重循环Q学习代理(Double Recurrent Q-learningagent)、决斗Q学习代理(Duel Q-learning agent)、双重决斗Q学习代理(Double Duel Q-learning agent)、决斗循环Q学习代理(Duel Recurrent Q-learning agent)、双重决斗循环Q学习代理(Double Duel Recurrent Q-learning agent)、演员-评论家代理(Actor-critic agent)、演员-评论家决斗代理(Actor-critic Duel agent)、演员-评论家循环代理(Actor-critic Recurrent agent)、演员-评论家决斗循环代理(Actor-critic DuelRecurrent agent)、好奇心Q学习代理(Curiosity Q-learning agent)、循环好奇心Q学习代理(Recurrent Curiosity Q-learning agent)、决斗好奇心Q学习代理(Duel CuriosityQ-learning agent)、神经进化代理(Neuro-evolution agent)、利用新颖性搜索的神经进化代理(Neuro-evolution with Novelty search agent)、ABCD策略代理(ABCD strategyagent)、深度进化策略(Deep Evolution Strategy)等的强化学习算法。另外,在本实施方式中,对于各个强化学习算法,通过随机搜索(Random Search)、贝叶斯优化(BayesianOptimization)、CMA-ES、坐标下降法(Coordinate Search)以及内尔德-米德法(Nelder-Mead)的最优化算法优化一个或多个超参数。
图13所示的G1~G120是确定强化学习算法和最优化算法的组合的编号。在本实施方式中,通过计算部22针对利用G1~G120的强化策略构建的各个学习模型计算性能。性能的计算可以是基于测试数据的评价(例如得到的收益率)。由此,能够选择最佳的强化策略、即能够构建评价最高的学习模型的强化策略。
在本实施方式的例子中,解析装置20可以针对品牌彼此不同的多个价格变动数据分别确定最佳的强化策略,并将与价格变动数据及最佳的强化策略相关的信息与多个识别编号分别相关联地加以存储。与多个识别编号分别对应的数据例如可以是价格变动数据、品牌(例如株式会社A)、价格变动数据的期间(例如1月1日~4月30日)、训练数据的期间(例如1月1日~2月28日)、最佳的强化战略(例如G1)、测试数据的期间(例如3月1日~4月30日)以及收益率(例如12%)等。在此,收益率是用测试数据评价最佳的强化策略时得到的收益率,也可以是IRR(内部收益率)。在此,根据与多个识别编号分别对应的信息提取的训练数据及最佳的强化策略成为用于生成后述的推测模型的学习数据。
图14是表示推测模型生成部26生成的推测模型的一例的图。如图14所示,推测模型由包括输入层31、隐藏层32以及输出层33的神经网络构成。推测模型生成部26将训练数据和最佳的强化策略作为学习数据进行监督学习,生成推测模型。具体而言,推测模型生成部26将训练数据输入至输入层31中,并以从输出层33输出最佳的强化策略的方式进行加权参数的学习。此时,推测模型生成部26除了训练数据之外,也可以将与价格变动数据相关的各种数据(例如品牌等)作为附加信息输入至输入层31。
当向所生成的推测模型的输入层31输入针对新问题设定的价格变动数据(以及附带信息)时,从输出层33输出与新问题相应的强化策略。例如,作为最适于新问题的强化策略可以输出图13所示的G11的强化策略。在此,解析装置20也可以使用Softmax函数,将图12所示的120个组合按照与性能(例如收益率)相应的顺序(例如按收益率)显示于解析装置20所具备的显示部中。由此,能够选择例如与品牌等相应的适当的强化策略,构建收益率高的学习模型。
图15是表示通过本实施方式涉及的解析装置20执行的推测处理的一例的流程图。首先,解析装置20从其他的信息处理装置受理规定的问题及规定的学习模型的指定(S40)。规定的问题及规定的学习模型的指定可以由用户输入。
接着,解析装置20针对学习模型的参数设定多个初始值(S41)。接着,解析装置20使用多个最优化算法对多个强化学习算法分别包含的一个或多个超参数进行优化,根据针对规定的问题设定的训练数据,并使用包含优化后的一个或多个超参数的多个强化学习算法分别单独执行或者并行执行学习模型的机器学习(S42)。
另外,解析装置20根据机器学习,针对每个强化学习算法和最优化算法单独或者并行地计算学习模型的性能(S43)。然后,解析装置20将针对规定的问题设定的训练数据以及强化学习算法和最优化算法的组合作为学习数据存储在存储部25中(S44)。
然后,解析装置20从其他的信息处理装置受理新问题的指定(S45)。新问题的指定可以由用户输入。接着,解析装置20获取针对新问题设定的设定数据(S46)。
然后,解析装置20使用通过后述推测模型生成处理生成的推测模型,并根据针对新问题设定的设定数据,推测与新问题相应的强化学习算法和最优化算法的组合(S47)。
图16是表示通过本实施方式涉及的解析装置20执行的推测模型生成处理的一例的流程图。首先,解析装置20获取学习数据,该学习数据包括针对规定的问题设定的训练数据以及强化学习算法和最优化算法的组合(S50)。此外,学习数据也可以经由因特网等的通信网络从外部存储装置获取。
然后,解析装置20通过使用了学习数据的监督学习,生成推测与新问题对应的强化学习算法和最优化算法的组合的推测模型(S51)。然后,解析装置20将所生成的推测模型加以存储(S52)。
现有技术中,提出了构建学习模型的各种算法和优化该算法中包含的超参数优化的各种最优化算法。然而,算法和最优化算法的组合有多个,难以选择适当的组合。根据本实施方式,针对每个算法和最优化算法而评价通过机器学习构建的学习模型的性能。因此,能够简便地选择更适当的算法和最优化算法的组合。
此外,在本实施方式中,对算法为强化学习算法的情况进行了说明,但算法并不限定于此,也可以是监督学习和无监督学习等的各种机器学习中使用的算法。即,根据本发明的技术,能够计算各种算法以及最优化算法各自的学习模型的性能。
另外,在第二实施方式中,可以应用第一实施方式中说明的各种构成。例如,可以实施第一实施方式中说明的预处理。由此,自动执行预处理、强化学习以及超参数的优化等各种处理,能够通过本发明的算法执行股票的买卖交易。
[应用例]
在以下的第一~第三应用例中,对上述实施方式的应用例进行说明。
在以下的应用例中,主要设想使用第二实施方式涉及的解析装置20来进行说明。
[第一应用例]
在第二实施方式中,使用由强化学习中的代理进行股票的买卖交易的例子进行了说明。强化学习并不限定于此,本发明的技术能够应用于各种强化学习中。例如,强化学习的代理也可以是通过自动驾驶行驶的自动驾驶车。该情况下,例如可以设定为将(MAD+FDE)/2的得分作为指标,该得分越小则代理越能获得更多的报酬。该情况下,算法例如可以包括Social LSTM、Social GAN、MX-LSTM、Social Force、SR-LSTM、RED、Ind-TF以及AMENet等。此外,这些算法记载于下述文献中。
(Social LSTM)A.Alahi,K.Goel,V.Ramanathan,A.Robicquet,L.Fei-Fei,S.Savarese,Social lstm:Human trajectory prediction in crowded spaces,in:InProceedings of CVPR,2016,pp.961-971.
(Social GAN)A.Gupta,J.Johnson,L.Fei-Fei,S.Savarese,A.Alahi,Socialgan:Socially acceptable trajectories with generative adversarial networks,in:In Proceedings of CVPR,2018,pp.2255-2264.
(MX-LSTM)I.Hasan,F.Setti,T.Tsesmelis,A.Del Bue,F.Galasso,M.Cristani,Mxlstm:mixing tracklets and vislets to jointly forecast trajectories and headposes,in:In Proceedings of CVPR,2018,pp.6067-6076.
(Social Force)D.Helbing,P.Molnar,Social force modelfor pedestriandynamics,Physical review E 51(5)(1995)4282.
(SR-LSTM)P.Zhang,W.Ouyang,P.Zhang,J.Xue,N.Zheng,Sr-lstm:Staterefinement for lstm towards pedestrian trajectory prediction,in:InProceedings of CVPR,2019,pp.12085-12094.
(RED)S.Becker,R.Hug,W.H¨ubner,M.Arens,An evaluation oftrajectoryprediction approaches and notes on the trajnet benchmark,arXiv preprintarXiv:1805.07663(2018).
(Ind-TF)F.Giuliari,I.Hasan,M.Cristani,F.Galasso,Transformer networksfor trajectory forecasting,arXiv preprint arXiv:2003.08111(2020).
(AMENet)AMENet:Attentive Maps Encoder Network forTrajectoryPrediction Hao Chenga,Wentong Liaob,Michael Ying Yangc,BodoRosenhahnb,Monika Sester.
另外,最优化算法包括例如随机搜索、贝叶斯优化、CMA-ES、坐标下降法以及内尔德-米德法等。此外,强化学习的指标并不限于(MAD+FDE)/2,也可以是MAD或FDE等。关于这些算法和最优化算法的组合,例如可以通过计算部22计算学习模型的性能。代理能够根据通过LSTM等生成的学习模型的性能判断算法和最优化算法的组合中哪个组合最佳。
[第二应用例]
目前,正在开发关于毫米波或子太赫兹波(subterahertz waves)的无线通信网络的技术。在最大限度地发挥毫米波或子太赫兹波的无线通信网络的性能方面,实现以往没有的低延迟和高可靠性成为课题。利用机器学习由无线网络获得周围的感觉可成为解决该课题的有效手段之一。
在下述的参考文献2中,尝试通过利用深度学习和计算机视觉来解决上述课题。具体而言,参考文献2中公开了学习根据观测到的RGB图像的序列和波束形成矢量预测将来可能发生的链路闭塞(link-brockage)的方法的深度神经网络架构。
然而,参考文献2所示的超参数的最优化算法是ADAM,批量大小为1000。在该前提条件下,链路闭塞的预测精度为86%左右。对于该参考文献2中公开的技术,也认为通过如本说明书所公开那样,自动对超参数进行优化、或者选择能够构建适当的学习模型的算法和最优化算法的组合,能够改善预测精度
(参考文献2)G.Charan,M.Alrabeiah,and A.Alkhateeb,Vision-Aided DynamicBlockage Prediction for 6G Wireless Communication Networks,arXiv preprintarXiv:2006.09902(2020).
[第三应用例]
另外,在下述参考文献3中,记载了从自主移动机器人推测从曲面镜中看到的人的技术。在参考文献3中,采用基于FCN-8sat-once的网络。该网络由两个网络构成,其中一个网络是进行语义分割的分类网络,另一个网络是进行深度图像预测的回归网络。分类网络和回归网络均使用预先学习完毕的VGG16模型的fc7层之前的层对权重进行初始化。尤其是pool5层之前的层被当作特征量提取器。但是,由于回归网络的输入是使三通道彩色图像Ireal和将从传感器取得的深度图像Dreal转换得到的三通道深度图像Dcolor的两个连接而成的六通道图像,因而仅convl_l层复制权重而使其与六通道对应。
(参考文献3)内海佑斗、北川晋吾、矢野倉伊織、岡田慧、稲葉雅幸:CNNによる深度予測に基づく鏡を活用した死角の物体知覚、人工知能学会全国大会論文集、第33回全国大会(2019)(内海佑斗、北川晋吾、矢野仓伊织、冈田慧、稻叶雅幸:有效利用基于CNN深度预测的镜子的死角物体感知、人工智能学会全国大会论文集、第33次全国大会(2019))
但是,在参考文献3的记载中,超参数的优化和学习模型的选定并非自动化,因而认为推测精度不够充分。另外,机器人为了随时检测人等对象(其他还有自行车或汽车等),还要求更快地执行处理。根据本发明的技术,超参数的优化的调整和适当的学习模型的选定为自动化,因而能够提高推测的精度和速度。
[第四应用例]
在第四应用例中,对于解析装置并行地执行推断适当的算法组合的处理(以下也称为“推断处理”)和对算法的组合进行全搜索的处理(以下也称为“全搜索处理”)的例子进行说明。
在第四应用例中,可以通过进行使用了上述预处理算法的学习数据的预处理、使用了最优化算法的超参数的优化以及使用了强化学习算法的机器学习而生成学习模型。另外,在第四应用例中,将预处理算法、最优化算法以及强化学习算法的组合简称为算法的组合。另外,解析装置可以如第二实施方式中所说明那样,例如使用训练数据而计算关于算法的组合的每一个的性能。进而,解析装置可以将第二实施方式中已说明的各种方法应用于算法的组合,生成用于推测与新问题对应的算法的组合的推测模型。此时,可以将训练数据、算法的组合以及性能作为学习数据而生成推测模型。
在第四应用例中,解析装置可以从例如与网络连接的外部装置获取数据,以第一时间为单位追加或更新学习数据(例如股价的价格变动数据等),以第一时间为单位利用规定的学习模型进行动作(例如股票交易等)。此时,解析装置能够以第二时间为单位执行推断处理,进而以第三时间为单位执行全搜索处理。在此,第一时间比第二时间短,第二时间比第三时间短。第一时间、第二时间以及第三时间并无特别限定,在第四应用例中,对于分别为1μs、1分钟以及1小时等的例子进行说明。
全搜索处理是:使用算法的组合的每一个,并通过基于所取得的学习数据的机器学习而生成学习模型,对各个算法的组合的性能进行评价,更新使各个算法的组合与性能相对应的实绩数据的处理。这里,假设使用在第二时间的期间取得的数据评价所有算法的组合的性能需要第三时间。因此,使用600万的数据,1小时更新一次实绩数据。通过参照更新后的实绩数据,能够确定最适当的算法的组合,实绩数据的至少一部分成为用于生成推测模型的学习数据。
推断处理是:向推测模型输入例如股价的价格变动数据等,取得与输入的数据相对应的算法的组合,将进行股票交易的学习模型切换为基于取得的算法生成的学习模型的处理。例如,解析装置将600万的数据输入推测模型取得算法的组合,并切换为根据所取得的算法的组合生成的学习模型。另外,解析装置能够使用学习模型以第一时间为单位进行动作。
解析装置由于是每隔第一时间这一短时间进行股票交易,因而在交易的执行方面强,具体而言,强于应对突发的股价上涨趋势或下跌趋势、大恐慌以及泡沫等。此时,在未搜索到所有算法的组合的情况下,即使进行了基于适当的学习模型的交易,也始终蕴藏着机会损失或者单纯损失的风险。
另外,在算法的组合为一个的情况下,其他人有可能预测到解析装置所进行的股票交易,从而对解析装置发起使其反盘的攻击。例如,可以想到预测到解析装置将向股票A投资10亿日元,从而发动将1000亿日元卖空等的攻击。作为针对这样的攻击的防御,可以考虑控制解析装置以解析装置下一次数μs后的交易中也卖空、或者不进行有可能一次蒙受较大损失的选择,等等。
另外,解析装置在交易方法的指示方面较强,具体而言,可以使用新取得的学习数据(例如,1小时前取得的股价的价格变动数据等),每隔第二时间切换为更为适当的算法的组合。即,在解析装置的内部,可以在随时改变用于进行股票交易的算法的组合的同时进行股票交易。
由此,机会损失和单纯损失的风险降低。另外,由于所使用的算法的组合分散,因而能够降低由于上述反盘的攻击等而产生损失的可能性。
另外,解析装置能够每隔第三时间更新算法的组合的实绩数据,在交易的测定方面较强,具体而言,能够非常高精度地找出针对股价的价格变动的最优解。在处理的性质方面,虽然数据的处理花费时间,但能够生成非常优异的推测模型的学习数据。
第四应用例涉及的解析装置能够在反复进行使用了学习模型的交易、推断处理以及全搜索处理的同时进行更为适当的处理。
此外,在第四应用例中,对解析装置进行股票交易的例子进行了说明,但并行执行上述推断处理和全搜索处理的处理等能够利用于汽车中的自动驾驶等的各种目的中。
[第五应用例]
在上述实施方式中,主要说明了解析装置进行使用预处理算法的学习数据的优化、使用最优化算法的超参数的优化以及使用算法的机器学习的例子。在第五应用例中,对解析装置在进行基于预处理算法的预处理之前进一步对学习数据进行预处理,即进行预处理的预处理的例子进行说明。
进行预处理的预处理的算法例如可以是CASH问题中首次提及的参考文献4、关于以Python编写的AutoML(Automated Machine Learning)的参考文献5、导入了元学习(meta-learning)的参考文献6、以及记载有利用遗传算法生成柔软的管线的参考文献7中记载的算法等。
(参考文献4)C.Thornton,F.Hutter,H.H.Hoos,and K.L.Brown,Auto-WEKA:Combined Selection and Hyperparameter Optimization of ClassificationAlgorithms,arXiv preprint arXiv:1208.3719,2013.
(参考文献5)B.Komer,J.Bergstra and C.Eliasmith,Hyperopt-Sklearn:Automatic Hyperparameter Configuration for Scikit-Learn,In Proc.of THE13thPYTHON IN SCIENCE CONF.:pages 34-40,2014.
(参考文献)M.Feurer,A.Klein,K.Eggensperger,J.Springenberg,M.Blum andF.Hutter,Efficient and Robust Automated Machine Learning,NIPS,2015.
(参考文献7)R.S.Olson,N.Bartley,R.J.Urbanowicz and J.H.Moore,Evaluation of a Tree-based Pipeline Optimization Tool for Automating DataScience,arXiv preprint arXiv:1603.06212,2016.
另外,解析装置可以根据通过这些参考文献中记载的进行预处理的预处理的算法(具体为这些参考文献中这些基于学习数据的预处理算法、最优化算法以及算法之前的算法)生成的数据,使用预处理算法、最优化算法以及算法的组合生成学习模型。进而,解析装置可以针对这些算法的组合的每一个计算性能。
通过对实施了预处理的预处理的学习数据进行预处理,并进行超参数的优化,以及生成使用算法的学习模型,有望能够生成通用性更高的AI即AGI(Artificial GeneralIntelligence:通用AI)。即,有望能够实现例如利用脑电波数据或图像数据等的所有学习数据的AI。
附图标记说明
10,20…解析装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…输入部、10f…显示部、11,21…学习部、12,22…计算部、12a,22a…学习模型、13,23…获取部、14…预测部、14a…预测模型、24…推测部、24a…推测模型、15,25…存储部、15a,25a…学习数据、16…生成部、26…推测模型生成部。

Claims (13)

1.一种解析装置,其具备:
学习部,使用多个算法,以缩小针对规定的问题设定的第一损失函数的值的方式分别进行规定的学习模型的机器学习;
计算部,根据所述机器学习,针对每个算法计算表示所述第一损失函数的全局形状的第一形状信息和所述学习模型的性能;
获取部,使用所述多个算法中的至少任意一个,由所述学习部执行使针对新问题设定的第二损失函数的值变小这样的机器学习,获取表示由所述计算部算出的所述第二损失函数的全局形状的第二形状信息;以及
预测部,使用通过将所述第一形状信息和所述学习模型的性能作为学习数据的监督学习而生成的预测模型,根据所述第二形状信息,针对所述多个算法分别预测以减小所述第二损失函数的值的方式执行所述学习模型的机器学习时的所述学习模型的性能。
2.根据权利要求1所述的解析装置,其中,
所述学习部使用包含一个或多个超参数的所述多个算法减小所述第一损失函数的值,使用多个最优化算法对所述一个或多个超参数进行优化,从而分别进行所述规定的学习模型的机器学习;
所述计算部根据所述机器学习,针对每个最优化算法计算表示所述第一损失函数的全局形状的第一形状信息和所述学习模型的性能。
3.根据权利要求1或2所述的解析装置,其中,
所述解析装置还具备生成部,所述生成部通过使用所述学习数据的监督学习生成所述预测模型。
4.根据权利要求1所述的解析装置,其中,
所述学习部针对所述学习模型的参数设定多个初始值,并使用所述多个算法以使所述第一损失函数的值变小的方式并行执行所述规定的学习模型的机器学习;
所述计算部根据所述机器学习,按照每个算法并行地计算所述第一形状信息和所述学习模型的性能。
5.根据权利要求1所述的解析装置,其中,
所述学习模型包括使用神经网络的模型。
6.根据权利要求5所述的解析装置,其中,
所述多个算法包括通过误差反向传播法更新所述神经网络的参数的算法。
7.根据权利要求1所述的解析装置,其中,
所述规定的问题和所述新问题包括如下问题:针对图像数据、序列数据以及文本数据中的至少任意一个进行分类、生成以及优化中的至少任意一个。
8.根据权利要求1所述的解析装置,其中,
所述多个算法包括如下算法:通过量子门方式或量子退火方式的量子计算机更新所述学习模型的参数。
9.根据权利要求1所述的解析装置,其中,
所述学习部使用包含一个或多个超参数的多个预处理算法进行所述机器学习中使用的学习数据的预处理,使用所述多个算法减小所述第一损失函数的值,使用多个最优化算法对所述一个或多个超参数进行优化,针对所述规定的学习模型分别进行使用了预处理后的所述学习数据的机器学习;
所述计算部根据使用了预处理后的所述学习数据的机器学习,按照所述多个预处理算法的每一个计算表示所述第一损失函数的全局形状的第一形状信息和所述学习模型的性能。
10.根据权利要求9所述的解析装置,其中,
所述多个预处理算法包括使用无监督学习对所述学习数据进行分类,并进行与分类相应的预处理的算法。
11.根据权利要求9或10所述的解析装置,其中,
以能够调整的方式显示所述多个算法所包含的一个或多个超参数和所述多个预处理算法所包含的一个或多个超参数,并针对所述多个算法和所述多个预处理算法分别显示所述学习模型的性能。
12.一种解析方法,通过解析装置所具备的处理器执行下述步骤:
使用多个算法,以缩小针对规定的问题设定的第一损失函数的值的方式分别进行规定的学习模型的机器学习;
根据所述机器学习,针对每个算法计算表示所述第一损失函数的全局形状的第一形状信息和所述学习模型的性能;
使用所述多个算法中的至少任意一个执行使针对新问题设定的第二损失函数的值变小这样的机器学习,获取表示所述第二损失函数的全局形状的第二形状信息;以及
使用通过将所述第一形状信息和所述学习模型的性能作为学习数据的监督学习而生成的预测模型,根据所述第二形状信息,针对所述多个算法分别预测以减小所述第二损失函数的值的方式执行所述学习模型的机器学习时的所述学习模型的性能。
13.一种计算机可读的存储介质,存储使解析装置所具备的处理器执行下述步骤的解析程序:
使用多个算法,以缩小针对规定的问题设定的第一损失函数的值的方式分别进行规定的学习模型的机器学习;
根据所述机器学习,针对每个算法计算表示所述第一损失函数的全局形状的第一形状信息和所述学习模型的性能;
使用所述多个算法中的至少任意一个执行使针对新问题设定的第二损失函数的值变小这样的机器学习,根据该机器学习获取表示所述第二损失函数的全局形状的第二形状信息;以及
使用通过将所述第一形状信息和所述学习模型的性能作为学习数据的监督学习而生成的预测模型,根据所述第二形状信息,针对所述多个算法分别预测以减小所述第二损失函数的值的方式执行所述学习模型的机器学习时的所述学习模型的性能。
CN202080005675.9A 2020-02-03 2020-09-25 解析装置、解析方法以及解析程序 Active CN113490956B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210750874.3A CN115271091A (zh) 2020-02-03 2020-09-25 信息处理装置、信息处理方法以及计算机可读的存储介质
CN202110609294.8A CN113469368A (zh) 2020-02-03 2020-09-25 解析装置、解析方法以及解析程序

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-016010 2020-02-03
JP2020016010A JP6774129B1 (ja) 2020-02-03 2020-02-03 解析装置、解析方法及び解析プログラム
PCT/JP2020/036328 WO2021157124A1 (ja) 2020-02-03 2020-09-25 解析装置、解析方法及び解析プログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CN202210750874.3A Division CN115271091A (zh) 2020-02-03 2020-09-25 信息处理装置、信息处理方法以及计算机可读的存储介质
CN202110609294.8A Division CN113469368A (zh) 2020-02-03 2020-09-25 解析装置、解析方法以及解析程序

Publications (2)

Publication Number Publication Date
CN113490956A CN113490956A (zh) 2021-10-08
CN113490956B true CN113490956B (zh) 2022-05-31

Family

ID=72829627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080005675.9A Active CN113490956B (zh) 2020-02-03 2020-09-25 解析装置、解析方法以及解析程序

Country Status (5)

Country Link
US (2) US11568264B2 (zh)
EP (1) EP4102418A4 (zh)
JP (2) JP6774129B1 (zh)
CN (1) CN113490956B (zh)
WO (1) WO2021157124A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
US11972052B2 (en) * 2021-05-05 2024-04-30 University Of Southern California Interactive human preference driven virtual texture generation and search, and haptic feedback systems and methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018066136A (ja) * 2016-10-18 2018-04-26 北海道瓦斯株式会社 融雪制御装置、ニューラルネットワークの学習方法、融雪制御方法及び融雪制御用プログラム
CN109447277A (zh) * 2018-10-19 2019-03-08 厦门渊亭信息科技有限公司 一种通用的机器学习超参黑盒优化方法及系统
CN109887284A (zh) * 2019-03-13 2019-06-14 银江股份有限公司 一种智慧城市交通信号控制推荐方法、系统及装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561848A (ja) * 1991-09-02 1993-03-12 Hitachi Ltd 最適アルゴリズムの選定及び実行のための装置及び方法
JP3303032B2 (ja) * 1992-04-24 2002-07-15 株式会社日立製作所 ニューラルネット学習装置
JP2005135287A (ja) * 2003-10-31 2005-05-26 National Agriculture & Bio-Oriented Research Organization 予測装置、予測方法および予測プログラム
JP5298277B2 (ja) 2008-12-26 2013-09-25 サンノプコ株式会社 樹脂改質剤、ビニル樹脂、塗料及び塗料組成物
US9330362B2 (en) 2013-05-15 2016-05-03 Microsoft Technology Licensing, Llc Tuning hyper-parameters of a computer-executable learning algorithm
US11120361B1 (en) * 2017-02-24 2021-09-14 Amazon Technologies, Inc. Training data routing and prediction ensembling at time series prediction system
JP6849915B2 (ja) 2017-03-31 2021-03-31 富士通株式会社 比較プログラム、比較方法および比較装置
US11232369B1 (en) * 2017-09-08 2022-01-25 Facebook, Inc. Training data quality for spam classification
US12001918B2 (en) * 2018-01-18 2024-06-04 Google Llc Classification using quantum neural networks
JP7071624B2 (ja) * 2018-03-13 2022-05-19 富士通株式会社 探索プログラム、探索方法および探索装置
JP7093965B2 (ja) 2018-06-22 2022-07-01 国立研究開発法人情報通信研究機構 モデル選択装置、及びモデル選択方法
US11704567B2 (en) * 2018-07-13 2023-07-18 Intel Corporation Systems and methods for an accelerated tuning of hyperparameters of a model using a machine learning-based tuning service
US11429762B2 (en) * 2018-11-27 2022-08-30 Amazon Technologies, Inc. Simulation orchestration for training reinforcement learning models
JP7059166B2 (ja) * 2018-11-29 2022-04-25 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP7213948B2 (ja) * 2019-02-28 2023-01-27 旭化成株式会社 学習装置および判断装置
US20210089832A1 (en) * 2019-09-19 2021-03-25 Cognizant Technology Solutions U.S. Corporation Loss Function Optimization Using Taylor Series Expansion
EP4042327A1 (en) * 2019-10-09 2022-08-17 Telefonaktiebolaget LM Ericsson (publ) Event detection in a data stream

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018066136A (ja) * 2016-10-18 2018-04-26 北海道瓦斯株式会社 融雪制御装置、ニューラルネットワークの学習方法、融雪制御方法及び融雪制御用プログラム
CN109447277A (zh) * 2018-10-19 2019-03-08 厦门渊亭信息科技有限公司 一种通用的机器学习超参黑盒优化方法及系统
CN109887284A (zh) * 2019-03-13 2019-06-14 银江股份有限公司 一种智慧城市交通信号控制推荐方法、系统及装置

Also Published As

Publication number Publication date
EP4102418A1 (en) 2022-12-14
WO2021157124A1 (ja) 2021-08-12
US20220156647A1 (en) 2022-05-19
US20220147829A1 (en) 2022-05-12
JP6774129B1 (ja) 2020-10-21
JP2021125210A (ja) 2021-08-30
CN113490956A (zh) 2021-10-08
US11568264B2 (en) 2023-01-31
EP4102418A4 (en) 2024-03-06
JP7437763B2 (ja) 2024-02-26
JP2021124805A (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
Wang et al. Forecasting stochastic neural network based on financial empirical mode decomposition
Barak et al. Wrapper ANFIS-ICA method to do stock market timing and feature selection on the basis of Japanese Candlestick
Taghian et al. Learning financial asset-specific trading rules via deep reinforcement learning
Du et al. Exploration of financial market credit scoring and risk management and prediction using deep learning and bionic algorithm
CN113490956B (zh) 解析装置、解析方法以及解析程序
Zhu et al. A stock decision support system based on DBNs
Khan et al. A study of forecasting stocks price by using deep Reinforcement Learning
Srivastava et al. Stock market prediction using RNN LSTM
Dhanalakshmi et al. A Logical Investigation of Stock Market Prediction and Analysis using Supervised Machine Learning Algorithm
Sher Evolving chart pattern sensitive neural network based forex trading agents
Jadli et al. A Novel LSTM-GRU-Based Hybrid Approach for Electrical Products Demand Forecasting.
CN112101516A (zh) 一种目标变量预测模型的生成方法、系统及装置
CN113469368A (zh) 解析装置、解析方法以及解析程序
Gurav et al. Predict stock market’s fluctuating behaviour: Role of investor’s sentiments on stock market performance
Bautu et al. Evolving hypernetwork models of binary time series for forecasting price movements on stock markets
Mesleh et al. Case Study: Predicting Future Forex Prices Using MLP and LSTM Models
Xue Prediction of NASDAQ Index Based on Stacking Method
Pandey et al. Time Series Forecasting and Prediction of Walmart Data using Hybrid Machine Learning Techniques
Novykov et al. Deep learning applications in investment portfolio management: a systematic literature review
Gandhmal et al. Chronological penguin Adam-based deep long short-term memory classifier for stock market prediction
Zeeshan et al. Measurement and forecasting of fluctuating Cryptocurrency prices using deep learning
KR102475813B1 (ko) 인공지능 기반 스마트 팩토리 구동 시뮬레이션 방법
Semionov Pruning of Long Short-Term Memory Neural Networks: Passes of Redundant Data Patterns
Varshini et al. How good are different machine and deep learning models in forecasting the future price of metals? Full sample versus sub-sample
CN117113041A (zh) 权重预测器的训练方法、交易数据预测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40054783

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant