JP2021124805A - 解析装置、解析方法及び解析プログラム - Google Patents

解析装置、解析方法及び解析プログラム Download PDF

Info

Publication number
JP2021124805A
JP2021124805A JP2020016010A JP2020016010A JP2021124805A JP 2021124805 A JP2021124805 A JP 2021124805A JP 2020016010 A JP2020016010 A JP 2020016010A JP 2020016010 A JP2020016010 A JP 2020016010A JP 2021124805 A JP2021124805 A JP 2021124805A
Authority
JP
Japan
Prior art keywords
learning
algorithms
loss function
learning model
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020016010A
Other languages
English (en)
Other versions
JP6774129B1 (ja
Inventor
望 窪田
Nozomu KUBOTA
望 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2020016010A priority Critical patent/JP6774129B1/ja
Priority to JP2020140108A priority patent/JP7437763B2/ja
Priority to US17/608,978 priority patent/US11568264B2/en
Priority to CN202210750874.3A priority patent/CN115271091A/zh
Priority to CN202110609294.8A priority patent/CN113469368A/zh
Priority to PCT/JP2020/036328 priority patent/WO2021157124A1/ja
Priority to CN202080005675.9A priority patent/CN113490956B/zh
Priority to EP20918102.3A priority patent/EP4102418A4/en
Application granted granted Critical
Publication of JP6774129B1 publication Critical patent/JP6774129B1/ja
Publication of JP2021124805A publication Critical patent/JP2021124805A/ja
Priority to US17/665,424 priority patent/US20220156647A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/20Models of quantum computing, e.g. quantum circuits or universal quantum computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】複数のアルゴリズムで学習処理を行った場合における学習モデルの性能を予測する解析装置、解析方法及び解析プログラムを提供する。
【解決手段】解析装置10は、所定の問題について設定された第1損失関数の大域的形状を表す第1形状情報及び学習モデルの性能を学習データとする教師あり学習によって生成された予測モデルを用いて、新たな問題について設定された第2損失関数の大域的形状を表す第2形状情報に基づいて、第2損失関数の値を小さくするように学習モデルの機械学習を実行した場合の学習モデルの性能を、複数のアルゴリズムそれぞれについて予測する。
【選択図】図1

Description

本発明は、解析装置、解析方法及び解析プログラムに関する。
近年、いわゆる人工知能を様々な問題に応用する試みがなされている。例えば、下記特許文献1には、様々な現実的な事象における問題の解決に用いることを目的としたモデル選択装置が記載されている。
特開2019−220063号公報
しかしながら、学習モデルの学習処理を行うためのアルゴリズムは複数知られており、問題に応じて学習処理のアルゴリズムを適切に選択しなければ、学習モデルの性能を十分に引き出せない場合がある。一般的には、学習モデルを設定する者の経験則に基づき、所定の問題に所定のアルゴリズムを用いることが行われており、選択されたアルゴリズムが適切であるかどうかの性能評価をする手段がなかった。
そこで、本発明は、複数のアルゴリズムで学習処理を行った場合における学習モデルの性能を予測する解析装置、解析方法及び解析プログラムを提供する。
本発明の一態様に係る解析装置は、複数のアルゴリズムを用いて、所定の問題について設定された第1損失関数の値を小さくするように所定の学習モデルの機械学習をそれぞれ行う学習部と、機械学習に基づき、第1損失関数の大域的形状を表す第1形状情報と、学習モデルの性能とを、アルゴリズムごとに算出する算出部と、複数のアルゴリズムのうち少なくともいずれかを用いて、新たな問題について設定された第2損失関数の値を小さくするような機械学習が学習部により実行され、算出部により算出された第2損失関数の大域的形状を表す第2形状情報を取得する取得部と、第1形状情報及び学習モデルの性能を学習データとする教師あり学習によって生成された予測モデルを用いて、第2形状情報に基づいて、第2損失関数の値を小さくするように学習モデルの機械学習を実行した場合の学習モデルの性能を、複数のアルゴリズムそれぞれについて予測する予測部と、を備える。
この態様によれば、複数のアルゴリズムのうち少なくとも1つのアルゴリズムを用いて学習モデルの機械学習を実行することで、他のアルゴリズムを用いて学習モデルの機械学習を実行した場合に得られる学習モデルの性能を予測することができる。
本発明によれば、複数のアルゴリズムで学習処理を行った場合における学習モデルの性能を予測する解析装置、解析方法及び解析プログラムを提供することができる。
本発明の実施形態に係る解析装置の機能ブロックを示す図である。 本実施形態に係る解析装置の物理的構成を示す図である。 本実施形態に係る解析装置によって学習処理を行った学習モデルの性能を示す図である。 本実施形態に係る解析装置により算出される形状情報を示す図である。 本実施形態に係る解析装置により算出される学習データを示す図である。 本実施形態に係る解析装置により実行される予測処理のフローチャートである。 本実施形態に係る解析装置により実行される予測モデル生成処理のフローチャートである。 本実施形態に係る解析装置によって学習処理を行った学習モデルの性能を示す図である。 本実施形態に係る解析装置により表示されるハイパーパラメータ調整画面を示す図である。 本実施形態に係る解析装置により実行される予測処理のフローチャートである。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1は、本発明の実施形態に係る解析装置10の機能ブロックの一例を示す図である。解析装置10は、学習部11、算出部12、取得部13、予測部14、記憶部15及び生成部16を備える。解析装置10は、汎用のコンピュータで構成されてもよい。
学習部11は、複数のアルゴリズムを用いて、所定の問題について設定された第1損失関数の値を小さくするように所定の学習モデルの機械学習をそれぞれ行う。ここで、所定の問題は、例えば画像データ、系列データ及びテキストデータの少なくともいずれかについて、分類、生成及び最適化の少なくともいずれかを行う問題を含む。ここで、画像データは、静止画のデータと、動画のデータとを含む。系列データは、音声データや株価のデータを含む。また、所定の学習モデルは、画像認識モデル、系列データ解析モデル、ロボットの制御モデル、強化学習モデル、音声認識モデル、音声生成モデル、画像生成モデル、自然言語処理モデル等を含み、例えば、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、双方向LSTM、DQN(Deep Q-Network)、VAE(Variational AutoEncoder)、GANs(Generative Adversarial Networks)、WaveNet、BERT(Bidirectional Encoder Representations from Transformers)、Word2Vec、ランダムフォレスト、サポートベクターマシン、ロジスティック回帰、勾配ブースティング決定木及び主成分分析等のいずれかであり、その他学習に適用可能なモデルを含む。また、学習モデルは、既存の学習済みモデルを枝刈り(Pruning)、量子化(Quantization)又は蒸留(Distillation)して得られるモデルを含む。なお、これらは一例に過ぎず、学習部11は、これら以外の問題について、学習モデルの機械学習を行ってもよい。
また、複数のアルゴリズムは、学習モデル12aの機械学習を行うアルゴリズムであり、学習モデル12aがニューラルネットワークを含む場合、誤差逆伝播法によりニューラルネットワークのパラメータを更新し、最適化するアルゴリズムであってよい。複数のアルゴリズムは、確率的勾配降下法(stochastic gradient descent:SGD)、モーメンタムSGD、AdaGrad、RMSProp、AdaDelta及びADAM等を含む。また、複数のアルゴリズムは、学習モデル12aのパラメータを、量子ゲート方式又は量子アニーリング方式の量子コンピュータによって更新するアルゴリズムを含む。例えば、複数の弱学習器を組み合わせた1つの強学習器によって学習モデル12aを構成する場合、Hartmut Neven, Vasil S. Denchev, Geordie Rose, William G. Macready, "QBoost: Large Scale Classifier Training with Adiabatic Quantum Optimization", Proceedings of the Asian Conference on Machine Learning, PMLR 25:333-348, 2012.に記載のアルゴリズムを用いてよい。また、Jacob Biamonte, Peter Wittek, Nicola Pancotti, Patrick Rebentrost, Nathan Wiebe and Seth Lloyd, "Quantum Machine Learning", Nature volume 549, pages 195-202, 2017.に記載のアルゴリズムを用いてもよい。なお、これらは一例に過ぎず、複数のアルゴリズムは、これら以外のアルゴリズムを含んでよい。また、量子コンピュータは、超伝導線路により量子ビットを構成するものであったり、イオントラップにより量子ビットを構成するものであったり、光回路によって量子ビットを構成するものであったりしてよく、ハードウェア構成は任意である。さらに、複数のアルゴリズムは、学習モデル12aのパラメータを、量子コンピュータ及び古典コンピュータのハイブリッド型コンピュータによって更新するアルゴリズムを含んでもよい。
算出部12は、機械学習に基づき、第1損失関数の大域的形状を表す第1形状情報と、学習モデル12aの性能とを、アルゴリズムごとに算出する。所定の問題について設定された第1損失関数は、学習モデル12aの出力とラベルデータとに関する2乗誤差関数であったり、クロスエントロピー関数であったりしてよい。学習モデル12aが含む複数のパラメータをθと表すとき、第1損失関数は、複数のパラメータθに関する関数L(θ)と表せる。本明細書では、関数L(θ)の値を、第1損失関数の大域的形状を表す第1形状情報と呼ぶ。例えば、算出部12は、学習モデル12aの機械学習に基づき、パラメータθに対する関数L(θ)の値を記録していき、第1損失関数の大域的形状を表す第1形状情報L(θ)を算出する。
また、学習モデル12aの性能は、例えば、F値で表したり、F値/(学習処理の計算時間)で表したり、第1損失関数の値で表したりしてよい。なお、F値は、適合率(precision)をPと表し、再現率(recall)をRと表すとき、2PR/(P+R)により算出される値である。算出部12は、学習モデル12aの機械学習に基づき、F値等で表される学習モデル12aの性能を算出する。
学習部11は、学習モデル12aのパラメータについて複数の初期値を設定し、複数のアルゴリズムを用いて、第1損失関数の値を小さくするように所定の学習モデル12aの機械学習を個別に実行又は並列に実行してもよい。並列実行の場合、算出部12は、機械学習に基づき、第1形状情報と、学習モデル12aの性能とを、アルゴリズムごとに並列して算出する。
学習モデル12aのパラメータについて複数の初期値を設定する理由は、複数の初期値を用いて学習モデル12aの機械学習を実行することで、損失関数の極小値に対応するパラメータが選ばれてしまうおそれを少なくすることができるからである。これにより、大域的に最適な損失関数の最小値に対応するパラメータを選ぶことができる確率を上げることができる。また、学習モデル12aの機械学習を複数の初期値についてそれぞれ並列実行する場合、大域的な最適解をより高速に求めることができる。
取得部13は、複数のアルゴリズムのうち少なくともいずれかを用いて、新たな問題について設定された第2損失関数の値を小さくするような機械学習が学習部11により実行され、算出部12により算出された第2損失関数の大域的形状を表す第2形状情報を取得する。ここで、新たな問題は、画像データ、系列データ及びテキストデータの少なくともいずれかについて、分類、生成及び最適化の少なくともいずれかを行う問題を含む。また、第2損失関数は、学習モデル12aの出力とラベルデータとに関する2乗誤差関数であったり、クロスエントロピー関数であったりしてよく、第2形状情報は、複数のパラメータθに関する第2損失関数の関数形L(θ)であってよい。
予測部14は、第1形状情報及び学習モデル12aの性能を学習データとする教師あり学習によって生成された予測モデル14aを用いる。また、予測部14は、この予測モデル14aを用いて、第2形状情報に基づいて、第2損失関数の値を小さくするように学習モデル12aの機械学習を実行した場合の学習モデル12aの性能を、複数のアルゴリズムそれぞれについて予測する。例えば、予測部14は、予測モデル14aに、所定のアルゴリズムの第2形状情報を入力することで、その他のアルゴリズムを含む複数のアルゴリズムそれぞれについて、機械学習を実行した場合の学習モデル12aの性能を出力する。
新たな問題について、いずれのアルゴリズムを用いれば学習モデル12aの性能を適切に引き出すことができるかを試行錯誤によって決定する場合、アルゴリズムの選定に時間を要する場合がある。本実施形態に係る解析装置10によれば、複数のアルゴリズムのうち少なくとも1つのアルゴリズムを用いて学習モデル12aの機械学習を実行することで、他のアルゴリズムを用いて学習モデル12aの機械学習を実行した場合に得られる学習モデル12aの性能を予測することができる。そのため、新たな問題が与えられた場合に、いずれのアルゴリズムを用いるべきか迅速に決定することができ、学習モデル12aの性能を適切に引き出すことができるようになる。
学習部11は、1又は複数のハイパーパラメータを含む複数のアルゴリズムを用いて、第1損失関数の値を小さくし、1又は複数のハイパーパラメータを複数の最適化アルゴリズムを用いて最適化して、所定の学習モデル12aの機械学習をそれぞれ行ってもよい。この場合、算出部12は、機械学習に基づき、第1損失関数の大域的形状を表す第1形状情報と、学習モデル12aの性能とを、複数の最適化アルゴリズムごとに算出する。ここで、ハイパーパラメータは、例えばアルゴリズムがSGDの場合、学習係数を含む。他のアルゴリズムに関しても、同様に、学習係数やモーメンタム係数といったハイパーパラメータが設定される。また、複数の最適化アルゴリズムは、例えば、ランダムサーチ、ベイジアン最適化、CMA−ES、座標降下法及びネルダー−ミード法等を含む。学習部11は、複数のアルゴリズムに関して1又は複数のハイパーパラメータを最適化する最適化アルゴリズムを用いた場合について、学習モデル12aの機械学習を実行した場合の学習モデル12aの性能を予測する。これにより、複数のアルゴリズムのうちいずれを選択すべきか予測するだけでなく、どのようなハイパーパラメータの最適化法を用いるべきであるか予測することができ、ハイパーパラメータチューニングに要する時間を短縮することができる。
記憶部15は、第1形状情報及び学習モデル12aの性能を含む学習データ15aを記憶する。学習データ15aは、あるアルゴリズムによって学習モデル12aの機械学習を実行した場合における損失関数の大域的形状を表す第1形状情報と、その機械学習の結果得られた学習モデル12aの性能とを含む。
生成部16は、学習データ15aを用いた教師あり学習によって、予測モデル14aを生成する。予測モデル14aは、例えばニューラルネットワークで構成されてよく、新たな問題について設定された第2損失関数の大域的形状を表す第2形状情報を入力として、複数のアルゴリズムを用いて、新たな問題について設定された第2損失関数の値を小さくするように学習モデル12aの機械学習を実行した場合の学習モデル12aの性能を予測するモデルである。
図2は、本実施形態に係る解析装置10の物理的構成の一例を示す図である。解析装置10は、演算部に相当するCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では解析装置10が一台のコンピュータで構成される場合について説明するが、解析装置10は、複数のコンピュータ又は複数の演算部が組み合わされて実現されてもよい。また、図2で示す構成は一例であり、解析装置10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、複数のアルゴリズムを用いて、新たな問題について設定された第2損失関数の値を小さくするように学習モデルの機械学習を実行した場合の学習モデルの性能を、複数のアルゴリズムそれぞれについて予測するプログラム(解析プログラム)を実行する演算部である。CPU10aは、入力部10eや通信部10dから種々のデータを受け取り、データの演算結果を表示部10fに表示したり、RAM10bに格納したりする。
RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、CPU10aが実行するプログラム、所定の問題について設定された損失関数の大域的形状及び学習モデルの性能を含む学習データといったデータを記憶してよい。なお、これらは例示であって、RAM10bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。
ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えば解析プログラムや、書き換えが行われないデータを記憶してよい。
通信部10dは、解析装置10を他の機器に接続するインターフェースである。通信部10dは、インターネット等の通信ネットワークに接続されてよい。
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fは、例えば、損失関数の大域的形状を表示してよい。
解析プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。解析装置10では、CPU10aが解析プログラムを実行することにより、図1を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、解析装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。また、解析装置10は、GPU(Graphical Processing Unit)やASIC(Application Specific Integrated Circuit)を備えていてもよい。
図3は、本実施形態に係る解析装置10によって学習処理を行った学習モデルの性能の一例を示す図である。同図では、SGD、モーメンタムSGD(Momentum SGD)、AdaGrad、RMSProp、AdaDelta、ADAM、量子ゲート方式及び量子アニーリング方式というアルゴリズムを用い、それぞれ、ランダムサーチ(Random Search)、ベイジアン最適化(Bayesian Optimization)、CMA−ES、座標降下法(Coordinate Search)及びネルダー−ミード法(Nelder-Mead)によって1又は複数のハイパーパラメータを最適化した場合における学習モデルの性能を示している。例えば、a1〜a5は、アルゴリズムとしてSGDを用いて、ランダムサーチ、ベイジアン最適化、CMA−ES、座標降下法又はネルダー−ミード法によって1又は複数のハイパーパラメータを最適化した場合における学習モデルの性能を表す数値である。なお、b1〜b5、c1〜c5、d1〜d5、e1〜e5、f1〜f5、g1〜g5及びh1〜h5は、同様に学習モデルの性能を表す数値である。
図4は、本実施形態に係る解析装置10により算出される形状情報の一例を示す図である。同図では、簡単のため、学習モデルのパラメータとしてθ1及びθ2を示し、損失関数の値L(θ)を示している。同図に示すように、損失関数の大域的形状は、複数の極小点を含み、最小点の探索が困難な場合がある。本実施形態に係る解析装置10は、このような損失関数の大域的形状を、学習モデル及び学習アルゴリズムの特徴量と捉え、損失関数の大域的形状から、複数のアルゴリズムを用いて学習モデルの学習処理を行った場合に関する学習モデルの性能を予測する。
図5は、本実施形態に係る解析装置10により算出される学習データの一例を示す図である。同図では、SGD、モーメンタムSGD(Momentum SGD)、AdaGrad、RMSProp、AdaDelta、ADAM、量子ゲート方式及び量子アニーリング方式というアルゴリズムについて、第1形状情報及び学習モデルの性能を示している。例えば、La(θ)は、アルゴリズムとしてSGDを用いた場合における第1形状情報を表し、Saは、アルゴリズムとしてSGDを用いた場合における学習モデルの性能を表す数値である。同様に、Lb(θ)、Lc(θ)、Ld(θ)、Le(θ)、Lf(θ)、Lg(θ)及びLh(θ)は、アルゴリズムとしてAdaGrad、RMSProp、AdaDelta、ADAM、量子ゲート方式又は量子アニーリング方式を用いた場合における第1形状情報を表す。また、Sb、Sc、Sd、Se、Sf、Sg及びShは、アルゴリズムとしてAdaGrad、RMSProp、AdaDelta、ADAM、量子ゲート方式又は量子アニーリング方式を用いた場合における学習モデルの性能を表す数値である。なお、学習モデルの性能は、図3に示すように、ハイパーパラメータの最適化アルゴリズムごとに算出し、それらを学習データとしてもよい。
図6は、本実施形態に係る解析装置10により実行される予測処理の一例を示すフローチャートである。はじめに、解析装置10は、所定の問題及び所定の学習モデルの指定を他の情報処理装置から受け付ける(S10)。所定の問題及び所定の学習モデルの指定は、ユーザ入力されてよい。
次に、解析装置10は、学習モデルのパラメータについて複数の初期値を設定し(S11)、1又は複数のハイパーパラメータを含む複数のアルゴリズムを用いて、第1損失関数の値を小さくし、1又は複数のハイパーパラメータを複数の最適化アルゴリズムを用いて最適化して、所定の学習モデルの機械学習をそれぞれ並列実行する(S12)。
また、解析装置10は、機械学習に基づき、第1損失関数の大域的形状を表す第1形状情報と、学習モデルの性能とを、アルゴリズムごとに並列して算出する(S13)。そして、解析装置10は、第1形状情報及び学習モデルの性能を学習データとして記憶部15に記憶する(S14)。
その後、解析装置10は、新たな問題の指定を他の情報処理装置から受け付ける(S15)。新たな問題の指定は、ユーザ入力されてよい。
解析装置10は、複数のアルゴリズムのうち少なくともいずれかを用いて、新たな問題について設定された第2損失関数の値を小さくするような機械学習が学習部11により実行され、算出部12により算出された第2損失関数の大域的形状を表す第2形状情報を取得する(S16)。そして、解析装置10は、予測モデルを用いて、第2形状情報に基づいて、第2損失関数の値を小さくするように学習モデルの機械学習を実行した場合の学習モデルの性能を、複数のアルゴリズムそれぞれについて予測する(S17)。
図7は、本実施形態に係る解析装置10により実行される予測モデル生成処理の一例を示すフローチャートである。はじめに、解析装置10は、第1形状情報及び学習モデルの性能を含む学習データを取得する(S20)。なお、学習データは、インターネット等の通信ネットワークを介して、外部記憶装置から取得してもよい。
その後、解析装置10は、学習データを用いた教師あり学習によって、第2形状情報に基づいて、第2損失関数の値を小さくするように学習モデルの機械学習を実行した場合の学習モデルの性能を、複数のアルゴリズムそれぞれについて予測する予測モデルを生成する(S21)。そして、解析装置10は、生成された予測モデルを記憶する。
図8は、本実施形態に係る解析装置10によって学習処理を行った学習モデルの性能を示す図である。同図では、階層型クラスタリング、非階層型クラスタリング、トピックモデル、自己組織化マップ、アソシエーション分析、協調フィルタリング、正準相関分析、量子ゲート方式及び量子アニーリング方式という教師なし学習を用いて学習データを分類し、分類に応じた前処理アルゴリズムを適用して、それぞれ、ランダムサーチ(Random Search)、ベイジアン最適化(Bayesian Optimization)、CMA−ES、座標降下法(Coordinate Search)及びネルダー−ミード法(Nelder-Mead)によって1又は複数のハイパーパラメータを最適化した場合における学習モデルの性能を示している。G1〜G5は、教師なし学習として階層型クラスタリングを用いて、ランダムサーチ、ベイジアン最適化、CMA−ES、座標降下法又はネルダー−ミード法によって、階層型クラスタリングに含まれる1又は複数のハイパーパラメータを最適化した場合における学習モデルの性能を表す数値である。なお、G6〜G45は、同様に学習モデルの性能を表す数値である。
学習部11は、1又は複数のハイパーパラメータを含む複数の前処理アルゴリズムを用いて、機械学習に用いる学習データの前処理を行い、複数のアルゴリズムを用いて、第1損失関数の値を小さくし、1又は複数のハイパーパラメータを複数の最適化アルゴリズムを用いて最適化して、所定の学習モデルについて、前処理された学習データを用いた機械学習をそれぞれ行う。そして、算出部12は、前処理された学習データを用いた機械学習に基づき、第1損失関数の大域的形状を表す第1形状情報と、学習モデルの性能とを、複数の前処理アルゴリズムごとに算出する。
複数の前処理アルゴリズムは、欠損値処理、外れ値の対応、連続値の離散化、データ操作、次元削減、ワンホットベクトル化、データ拡張、特徴量エンジニアリング及びビン分割を含んでよい。複数の前処理アルゴリズムは、学習データを教師なし学習を用いて分類し、分類に応じた前処理を行うアルゴリズムを含む。すなわち、複数の前処理アルゴリズムは、階層型クラスタリング、非階層型クラスタリング、トピックモデル、自己組織化マップ、アソシエーション分析、協調フィルタリング、正準相関分析、量子ゲート方式及び量子アニーリング方式といった教師なし学習を用いて学習データを分類し、分類に応じて欠損値処理、説明変数の絞り込み、ワンホットベクトル化及びビン分割の少なくともいずれかを行うアルゴリズムを含む。
図9は、本実施形態に係る解析装置10により表示されるハイパーパラメータ調整画面を示す図である。同図では、学習アルゴリズムのハイパーパラメータを調整するためのスライドバーと、前処理アルゴリズムのハイパーパラメータを調整するためのスライドバーと、縦軸に学習アルゴリズムの種類を数値で表し、横軸に前処理アルゴリズムの種類を数値で表して、(L−損失関数)の値のヒートマップを表示している。ここで、Lは、損失関数の最大値である。なお、(L−損失関数)の値は、学習モデルの性能を表す値の一例であり、解析装置10は、損失関数の値のヒートマップに替えて、学習モデルの性能を示すF値やF値/(学習処理の計算時間)のヒートマップを表示してもよい。
解析装置10は、複数のアルゴリズムに含まれる1又は複数のハイパーパラメータと、複数の前処理アルゴリズムに含まれる1又は複数のハイパーパラメータとを調整可能に表示し、学習モデルの性能を、複数のアルゴリズム及び複数の前処理アルゴリズムそれぞれについて表示する。解析装置10のユーザは、学習アルゴリズムのハイパーパラメータ及び前処理アルゴリズムのハイパーパラメータを調整しつつ、ヒートマップにより示される最も損失関数の値が小さくなる点(最尤点)を確認し、その点に対応する学習アルゴリズム及び前処理アルゴリズムを選択することで、複数の学習アルゴリズム及び複数の前処理アルゴリズムの中から最適なアルゴリズムを効率良く選択することができる。
図10は、本実施形態に係る解析装置10により実行される予測処理のフローチャートである。はじめに、解析装置10は、学習アルゴリズムのハイパーパラメータの指定及び前処理アルゴリズムのハイパーパラメータの指定を受け付ける(S30)。
その後、解析装置10は、学習データを教師なし学習を用いて分類する(S31)。そして、解析装置10は、1又は複数のハイパーパラメータを含む複数の前処理アルゴリズムを用いて、機械学習に用いる学習データの前処理を行い、複数のアルゴリズムを用いて、第1損失関数の値を小さくし、1又は複数のハイパーパラメータを複数の最適化アルゴリズムを用いて最適化して、所定の学習モデルについて、前処理された学習データを用いた機械学習をそれぞれ実行する(S32)。
解析装置10は、前処理された学習データを用いた機械学習に基づき、第1損失関数の大域的形状を表す第1形状情報と、学習モデルの性能とを、複数の前処理アルゴリズムごとに算出する(S33)。そして、解析装置10は、第1形状情報及び学習モデルの性能を学習データとして記憶する(S34)。
その後、解析装置10は、新たな問題の指定を受け付ける(S35)。そして、解析装置10は、複数の前処理アルゴリズムのうち少なくともいずれかを用いて、新たな問題について設定された第2損失関数の値を小さくするような機械学習が学習部により実行され、算出部により算出された第2損失関数の大域的形状を表す第2形状情報を取得する(S36)。
最後に、解析装置10は、予測モデルを用いて、第2形状情報に基づいて、第2損失関数の値を小さくするように学習モデルの機械学習を実行した場合の学習モデルの性能を、複数の前処理アルゴリズムそれぞれについて予測する(S37)。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
10…解析装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、11…学習部、12…算出部、12a…学習モデル、13…取得部、14…予測部、14a…予測モデル、15…記憶部、15a…学習データ、16…生成部

Claims (13)

  1. 複数のアルゴリズムを用いて、所定の問題について設定された第1損失関数の値を小さくするように所定の学習モデルの機械学習をそれぞれ行う学習部と、
    前記機械学習に基づき、前記第1損失関数の大域的形状を表す第1形状情報と、前記学習モデルの性能とを、アルゴリズムごとに算出する算出部と、
    前記複数のアルゴリズムのうち少なくともいずれかを用いて、新たな問題について設定された第2損失関数の値を小さくするような機械学習が前記学習部により実行され、前記算出部により算出された前記第2損失関数の大域的形状を表す第2形状情報を取得する取得部と、
    前記第1形状情報及び前記学習モデルの性能を学習データとする教師あり学習によって生成された予測モデルを用いて、前記第2形状情報に基づいて、前記第2損失関数の値を小さくするように前記学習モデルの機械学習を実行した場合の前記学習モデルの性能を、前記複数のアルゴリズムそれぞれについて予測する予測部と、
    を備える解析装置。
  2. 前記学習部は、1又は複数のハイパーパラメータを含む前記複数のアルゴリズムを用いて、前記第1損失関数の値を小さくし、前記1又は複数のハイパーパラメータを複数の最適化アルゴリズムを用いて最適化して、前記所定の学習モデルの機械学習をそれぞれ行い、
    前記算出部は、機械学習に基づき、前記第1損失関数の大域的形状を表す第1形状情報と、前記学習モデルの性能とを、最適化アルゴリズムごとに算出する、
    請求項1に記載の解析装置。
  3. 前記学習データを用いた教師あり学習によって、前記予測モデルを生成する生成部をさらに備える、
    請求項1又は2に記載の解析装置。
  4. 前記学習部は、前記学習モデルのパラメータについて複数の初期値を設定し、前記複数のアルゴリズムを用いて、前記第1損失関数の値を小さくするように前記所定の学習モデルの機械学習を並列実行し、
    前記算出部は、前記機械学習に基づき、前記第1形状情報と、前記学習モデルの性能とを、アルゴリズムごとに並列して算出する、
    請求項1から3のいずれか一項に記載の解析装置。
  5. 前記学習モデルは、ニューラルネットワークを用いたモデルを含む、
    請求項1から4のいずれか一項に記載の解析装置。
  6. 前記複数のアルゴリズムは、前記ニューラルネットワークのパラメータを誤差逆伝播法によって更新するアルゴリズムを含む、
    請求項5に記載の解析装置。
  7. 前記所定の問題及び前記新たな問題は、画像データ、系列データ及びテキストデータの少なくともいずれかについて、分類、生成及び最適化の少なくともいずれかを行う問題を含む、
    請求項1から6のいずれか一項に記載の解析装置。
  8. 前記複数のアルゴリズムは、前記学習モデルのパラメータを、量子ゲート方式又は量子アニーリング方式の量子コンピュータによって更新するアルゴリズムを含む、
    請求項1から7のいずれか一項に記載の解析装置。
  9. 前記学習部は、1又は複数のハイパーパラメータを含む複数の前処理アルゴリズムを用いて、前記機械学習に用いる学習データの前処理を行い、前記複数のアルゴリズムを用いて、前記第1損失関数の値を小さくし、前記1又は複数のハイパーパラメータを複数の最適化アルゴリズムを用いて最適化して、前記所定の学習モデルについて、前処理された前記学習データを用いた機械学習をそれぞれ行い、
    前記算出部は、前処理された前記学習データを用いた機械学習に基づき、前記第1損失関数の大域的形状を表す第1形状情報と、前記学習モデルの性能とを、前記複数の前処理アルゴリズムごとに算出する、 請求項1から8のいずれか一項に記載の解析装置。
  10. 前記複数の前処理アルゴリズムは、前記学習データを教師なし学習を用いて分類し、分類に応じた前処理を行うアルゴリズムを含む、
    請求項9に記載の解析装置。
  11. 前記複数のアルゴリズムに含まれる1又は複数のハイパーパラメータと、前記複数の前処理アルゴリズムに含まれる1又は複数のハイパーパラメータとを調整可能に表示し、前記学習モデルの性能を、前記複数のアルゴリズム及び前記複数の前処理アルゴリズムそれぞれについて表示する、
    請求項9又は10に記載の解析装置。
  12. 解析装置に備えられたプロセッサによって、
    複数のアルゴリズムを用いて、所定の問題について設定された第1損失関数の値を小さくするように所定の学習モデルの機械学習をそれぞれ行うことと、
    前記機械学習に基づき、前記第1損失関数の大域的形状を表す第1形状情報と、前記学習モデルの性能とを、アルゴリズムごとに算出することと、
    前記複数のアルゴリズムのうち少なくともいずれかを用いて、新たな問題について設定された第2損失関数の値を小さくするような機械学習が実行され、前記第2損失関数の大域的形状を表す第2形状情報を取得することと、
    前記第1形状情報及び前記学習モデルの性能を学習データとする教師あり学習によって生成された予測モデルを用いて、前記第2形状情報に基づいて、前記第2損失関数の値を小さくするように前記学習モデルの機械学習を実行した場合の前記学習モデルの性能を、前記複数のアルゴリズムそれぞれについて予測することと、
    を実行する解析方法。
  13. 解析装置に備えられたプロセッサに、
    複数のアルゴリズムを用いて、所定の問題について設定された第1損失関数の値を小さくするように所定の学習モデルの機械学習をそれぞれ行うことと、
    前記機械学習に基づき、前記第1損失関数の大域的形状を表す第1形状情報と、前記学習モデルの性能とを、アルゴリズムごとに算出することと、
    前記複数のアルゴリズムのうち少なくともいずれかを用いて、新たな問題について設定された第2損失関数の値を小さくするような機械学習が実行され、当該機械学習に基づき、前記第2損失関数の大域的形状を表す第2形状情報を取得することと、
    前記第1形状情報及び前記学習モデルの性能を学習データとする教師あり学習によって生成された予測モデルを用いて、前記第2形状情報に基づいて、前記第2損失関数の値を小さくするように前記学習モデルの機械学習を実行した場合の前記学習モデルの性能を、前記複数のアルゴリズムそれぞれについて予測することと、
    を実行させる解析プログラム。
JP2020016010A 2020-02-03 2020-02-03 解析装置、解析方法及び解析プログラム Active JP6774129B1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2020016010A JP6774129B1 (ja) 2020-02-03 2020-02-03 解析装置、解析方法及び解析プログラム
JP2020140108A JP7437763B2 (ja) 2020-02-03 2020-08-21 解析装置、解析方法及び解析プログラム
CN202210750874.3A CN115271091A (zh) 2020-02-03 2020-09-25 信息处理装置、信息处理方法以及计算机可读的存储介质
CN202110609294.8A CN113469368A (zh) 2020-02-03 2020-09-25 解析装置、解析方法以及解析程序
US17/608,978 US11568264B2 (en) 2020-02-03 2020-09-25 Using shape information and loss functions for predictive modelling
PCT/JP2020/036328 WO2021157124A1 (ja) 2020-02-03 2020-09-25 解析装置、解析方法及び解析プログラム
CN202080005675.9A CN113490956B (zh) 2020-02-03 2020-09-25 解析装置、解析方法以及解析程序
EP20918102.3A EP4102418A4 (en) 2020-02-03 2020-09-25 ANALYSIS DEVICE, ANALYSIS METHOD AND ANALYSIS PROGRAM
US17/665,424 US20220156647A1 (en) 2020-02-03 2022-02-04 Analysis device, analysis method, and analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020016010A JP6774129B1 (ja) 2020-02-03 2020-02-03 解析装置、解析方法及び解析プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020140108A Division JP7437763B2 (ja) 2020-02-03 2020-08-21 解析装置、解析方法及び解析プログラム

Publications (2)

Publication Number Publication Date
JP6774129B1 JP6774129B1 (ja) 2020-10-21
JP2021124805A true JP2021124805A (ja) 2021-08-30

Family

ID=72829627

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020016010A Active JP6774129B1 (ja) 2020-02-03 2020-02-03 解析装置、解析方法及び解析プログラム
JP2020140108A Active JP7437763B2 (ja) 2020-02-03 2020-08-21 解析装置、解析方法及び解析プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020140108A Active JP7437763B2 (ja) 2020-02-03 2020-08-21 解析装置、解析方法及び解析プログラム

Country Status (5)

Country Link
US (2) US11568264B2 (ja)
EP (1) EP4102418A4 (ja)
JP (2) JP6774129B1 (ja)
CN (1) CN113490956B (ja)
WO (1) WO2021157124A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
US11972052B2 (en) * 2021-05-05 2024-04-30 University Of Southern California Interactive human preference driven virtual texture generation and search, and haptic feedback systems and methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561848A (ja) * 1991-09-02 1993-03-12 Hitachi Ltd 最適アルゴリズムの選定及び実行のための装置及び方法
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法
JP2005135287A (ja) * 2003-10-31 2005-05-26 National Agriculture & Bio-Oriented Research Organization 予測装置、予測方法および予測プログラム
JP2019159769A (ja) * 2018-03-13 2019-09-19 富士通株式会社 探索プログラム、探索方法および探索装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5298277B2 (ja) 2008-12-26 2013-09-25 サンノプコ株式会社 樹脂改質剤、ビニル樹脂、塗料及び塗料組成物
US9330362B2 (en) 2013-05-15 2016-05-03 Microsoft Technology Licensing, Llc Tuning hyper-parameters of a computer-executable learning algorithm
JP6549546B2 (ja) 2016-10-18 2019-07-24 北海道瓦斯株式会社 融雪制御装置、ニューラルネットワークの学習方法、融雪制御方法及び融雪制御用プログラム
US11120361B1 (en) * 2017-02-24 2021-09-14 Amazon Technologies, Inc. Training data routing and prediction ensembling at time series prediction system
JP6849915B2 (ja) 2017-03-31 2021-03-31 富士通株式会社 比較プログラム、比較方法および比較装置
US11232369B1 (en) * 2017-09-08 2022-01-25 Facebook, Inc. Training data quality for spam classification
US12001918B2 (en) * 2018-01-18 2024-06-04 Google Llc Classification using quantum neural networks
JP7093965B2 (ja) 2018-06-22 2022-07-01 国立研究開発法人情報通信研究機構 モデル選択装置、及びモデル選択方法
US11704567B2 (en) * 2018-07-13 2023-07-18 Intel Corporation Systems and methods for an accelerated tuning of hyperparameters of a model using a machine learning-based tuning service
CN109447277B (zh) * 2018-10-19 2023-11-10 厦门渊亭信息科技有限公司 一种通用的机器学习超参黑盒优化方法及系统
US11429762B2 (en) * 2018-11-27 2022-08-30 Amazon Technologies, Inc. Simulation orchestration for training reinforcement learning models
JP7059166B2 (ja) * 2018-11-29 2022-04-25 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP7213948B2 (ja) * 2019-02-28 2023-01-27 旭化成株式会社 学習装置および判断装置
CN109887284B (zh) * 2019-03-13 2020-08-21 银江股份有限公司 一种智慧城市交通信号控制推荐方法、系统及装置
US20210089832A1 (en) * 2019-09-19 2021-03-25 Cognizant Technology Solutions U.S. Corporation Loss Function Optimization Using Taylor Series Expansion
EP4042327A1 (en) * 2019-10-09 2022-08-17 Telefonaktiebolaget LM Ericsson (publ) Event detection in a data stream

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561848A (ja) * 1991-09-02 1993-03-12 Hitachi Ltd 最適アルゴリズムの選定及び実行のための装置及び方法
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法
JP2005135287A (ja) * 2003-10-31 2005-05-26 National Agriculture & Bio-Oriented Research Organization 予測装置、予測方法および予測プログラム
JP2019159769A (ja) * 2018-03-13 2019-09-19 富士通株式会社 探索プログラム、探索方法および探索装置

Also Published As

Publication number Publication date
EP4102418A1 (en) 2022-12-14
WO2021157124A1 (ja) 2021-08-12
US20220156647A1 (en) 2022-05-19
US20220147829A1 (en) 2022-05-12
JP6774129B1 (ja) 2020-10-21
JP2021125210A (ja) 2021-08-30
CN113490956B (zh) 2022-05-31
CN113490956A (zh) 2021-10-08
US11568264B2 (en) 2023-01-31
EP4102418A4 (en) 2024-03-06
JP7437763B2 (ja) 2024-02-26

Similar Documents

Publication Publication Date Title
Abdollahzadeh et al. A multi-objective optimization algorithm for feature selection problems
JP6774129B1 (ja) 解析装置、解析方法及び解析プログラム
Chen et al. Automated agriculture commodity price prediction system with machine learning techniques
Khan et al. A study of forecasting stocks price by using deep Reinforcement Learning
JPWO2018079225A1 (ja) 自動予測システム、自動予測方法および自動予測プログラム
Schulz et al. Uncertainty quantification of surrogate explanations: an ordinal consensus approach
US11928698B2 (en) Information processing apparatus, information processing method and program thereof
WO2023210665A1 (ja) 計算グラフの改善
Roy et al. Trust-region based multi-objective optimization for low budget scenarios
CN115860064A (zh) 一种基于演化图卷积的动态网络嵌入方法
Zhang et al. Deriving equation from data via knowledge discovery and machine learning: A study of Young’s modulus of Ti-Nb alloys
JP7489275B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
Márquez-Grajales et al. Use of a Surrogate Model for Symbolic Discretization of Temporal Data Sets Through eMODiTS and a Training Set with Varying-Sized Instances
JP7112802B1 (ja) 学習モデルの軽量化
KR20210100613A (ko) 콘텐츠의 분류 방법 및 분류 모델의 생성 방법
CN113469368A (zh) 解析装置、解析方法以及解析程序
Ansary Machine Learning for Predicting the Stock Price Direction with Trading Indicators
Zeeshan et al. Measurement and forecasting of fluctuating Cryptocurrency prices using deep learning
Ajibade et al. Feature selection using chaotic particle swarm optimization
JP2023090055A (ja) 機械学習における分散学習
Semionov Pruning of Long Short-Term Memory Neural Networks: Passes of Redundant Data Patterns
Cuevas-Chávez et al. School Dropout Prediction with Class Balancing and Hyperparameter Configuration
Kumar Shrivastav et al. A novel approach towards the analysis of stochastic high frequency data analysis using ARIMA model
Dineshkumar et al. Foresight In Finance: Elevating Predictions With Enhanced Rnn-Lstm And Adam Optimizer
Castellani et al. Case-based modeling and the SACS toolkit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200203

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200203

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200731

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200925

R150 Certificate of patent or registration of utility model

Ref document number: 6774129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250