JP7295431B2 - 学習プログラム、学習方法および学習装置 - Google Patents
学習プログラム、学習方法および学習装置 Download PDFInfo
- Publication number
- JP7295431B2 JP7295431B2 JP2019214496A JP2019214496A JP7295431B2 JP 7295431 B2 JP7295431 B2 JP 7295431B2 JP 2019214496 A JP2019214496 A JP 2019214496A JP 2019214496 A JP2019214496 A JP 2019214496A JP 7295431 B2 JP7295431 B2 JP 7295431B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- learning
- learning rate
- parameter
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
[第1の実施の形態]
第1の実施の形態を説明する。
第1の実施の形態の学習装置10は、機械学習により訓練データ16を用いてモデル13を学習する。学習装置10は、クライアント装置でもよいしサーバ装置でもよい。学習装置10を、コンピュータ、情報処理装置、機械学習装置などと言うこともできる。
モデル13は、機械学習によって学習されるモデルである。モデル13は、例えば、ニューラルネットワークである。モデル13は、ブロック14,15を含む。ブロック14,15はそれぞれ、モデル13の中のひとまとまりの要素集合であり、それ自体を「モデル」と言うこともある。ブロック14,15は、例えば、それぞれニューラルネットワークである。ブロック14,15は、モデル13の入力から出力までの間にデータが通過する経路上に位置する。例えば、ブロック14はブロック15よりもモデル13の入力に近く、ブロック15はブロック14よりもモデル13の出力に近い。モデル13の中で、ブロック14とブロック15とが接続されていてもよい。
次に、第2の実施の形態を説明する。
図2は、第2の実施の形態の学習装置のハードウェア例を示すブロック図である。
HDD103は、OS(Operating System)やミドルウェアやアプリケーションソフトウェアなどのソフトウェアのプログラム、および、データを記憶する不揮発性ストレージである。学習装置100は、フラッシュメモリやSSD(Solid State Drive)など他の種類のストレージを備えてもよく、複数のストレージを備えてもよい。CPU101が実行するプログラムには、機械学習を制御するためのプラットフォームプログラムやライブラリプログラムが含まれる。GPU104-1~104-4が実行するプログラムには、機械学習用のライブラリプログラムやユーザのアプリケーションプログラムが含まれる。
画像インタフェース106は、CPU101からの命令に従って、学習装置100に接続された表示装置111に画像を出力する。表示装置111として、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(OEL:Organic Electro-Luminescence)ディスプレイ、プロジェクタなど、任意の種類の表示装置を使用することができる。学習装置100に、プリンタなど表示装置111以外の出力デバイスが接続されてもよい。
図3は、既存モデルと新規モデルの組み合わせ例を示す図である。
第2の実施の形態では、モデルとして多層ニューラルネットワークを使用し、機械学習アルゴリズムとして深層学習を使用する。学習装置100は、学習済みの既存モデルと新規モデルとを組み合わせることで、所望の機能をもつモデルを効率的に学習する。例えば、学習装置100は、学習済みの汎用的な画像認識モデルの後段に、新規モデルを接続することで、手書き文字の認識に特化した手書き文字認識モデルを生成する。
ブロック131は、小ブロック131-1~131-5を含む。小ブロック131-1は、フィルタをシフトしながら積和演算を繰り返す畳み込み演算(Convolution)を行う。小ブロック131-1では、横のサイズが2分の1に圧縮され、縦のサイズが2分の1に圧縮される。小ブロック131-2は、小ブロック131-1の次段にあり、隣接する所定個の要素を1つの要素に合成するプーリング演算を行う。小ブロック131-2では、横のサイズが2分の1に圧縮され、縦のサイズが2分の1に圧縮される。
小ブロック135-1は、ブロック134の最終段にある小ブロック134-3の出力を受け付け、畳み込み演算を行う。小ブロック135-2は、小ブロック135-1の出力を受け付け、縦のサイズを2倍に拡大すると共に横のサイズを2倍に拡大するリサイズ演算を行う。このリサイズ演算によって、データサイズが16×12になる。リサイズ演算には双線形補間(Bilinear Interpolation)を用いる。小ブロック135-3は、小ブロック135-2の出力を受け付け、畳み込み演算を行う。
図5は、ニューラルネットワークの学習例を示す図である。
学習装置100が学習する多層ニューラルネットワークは、入力層と1以上の中間層と出力層とを含む。各層は、ニューロンに相当する複数のノードを含む。隣接する2つの層に属するノードの間に、シナプスに相当するエッジが形成される。各エッジは、機械学習を通じて決定されるパラメータとして重みをもっている。また、各ノードは、入力値の重み付き和を出力値に変換するための活性化関数をもっている。活性化関数には、シグモイド関数、ランプ関数、ソフトマックス関数などの種類がある。活性化関数は、ハイパーパラメータとしてユーザから指定される。活性化関数は、層毎に設定してもよいし、小ブロック毎に設定してもよいし、ブロック毎に設定してもよい。
Forwardフェーズでは、訓練データに含まれる説明変数の値が入力データとしてニューラルネットワーク140の入力層に対して入力され、入力データに対応する予測結果がニューラルネットワーク140の出力層から出力される。そして、予測結果と訓練データに含まれる教師ラベルとの間の予測誤差が算出される。例えば、複数の文字候補の確率を列挙した予測ベクトルと、正解の文字に対応する数値が「1」でありそれ以外の文字に対応する数値が「0」である正解ベクトルとが比較され、2つのベクトルの差の二乗和平方根が算出される。これは、L2ノルムとして表現した予測誤差である。
ニューラルネットワークの予測誤差Eは、グラフ151に示すように、重みwの関数とみなすことができる。誤差逆伝播法では、予測誤差Eが最小になる重みwが探索される。現在の重みwにおける予測誤差Eの誤差勾配に応じて、誤差勾配とは逆方向に重みwが変化する。誤差勾配が正の場合は重みwが小さくなり、誤差勾配が負の場合は重みwが大きくなる。重みwの1回の変化量が、0以上の実数である学習率によって調整される。
前述のように、異なる入力データに対するForwardフェーズやBackwardフェーズを並列化することで、多層ニューラルネットワークの学習を高速化できる。そこで、学習装置100は、GPU104-1~104-4を用いて並列処理を行う。多層ニューラルネットワークの学習の並列処理は、Forward、Backward、Communicate、Updateの4つのフェーズを含む。
Forwardフェーズでは、GPU104-1~104-4は、互いに異なる入力データを選択してブロック131に入力する。すると、ブロック131からブロック132,133,134を通ってブロック135にデータが伝播し、モデルから予測結果が出力される。GPU104-1~104-4はそれぞれ、予測誤差を算出する。入力データが異なるため、GPU104-1~104-4の間で異なる予測誤差が算出され得る。
ここでは、GPU104-1~104-4によるCommunicateフェーズおよびUpdateフェーズの並列処理の例を説明する。特定の重みwに対して、GPU104-1は、入力データ1から誤差勾配∇E1を算出する。GPU104-2は、入力データ2から誤差勾配∇E2を算出する。GPU104-3は、入力データ3から誤差勾配∇E3を算出する。GPU104-4は、入力データ4から誤差勾配∇E4を算出する。
前述のように、ブロック131~135に対して異なる学習率が設定され、機械学習の進行に応じてそれら学習率が段階的に引き下げられる。ユーザの指定した初期値から学習率を引き下げることは、機械学習のプラットフォームによって自動的に行われる。
上記のように、学習率が0であるブロックでは、Updateフェーズを実行しても重みが変化しない。また、学習率が0ではないが十分に小さいブロックでは、誤差勾配に学習率を乗じた数値が有効桁数より小さくなることがあり、Updateフェーズを実行しても重みが変化しないことがある。また、誤差勾配に学習率を乗じた数値が有効桁数の範囲内であっても、その数値が微小であり重みがほとんど変化しないこともある。
学習装置100は、最も大きい学習率を基準にして、ブロック131~135の間の学習率の比率を算出する。ここでは、ブロック135の学習率を1とすると、ブロック134の学習率が2分の1、ブロック133の学習率が10分の1、ブロック132の学習率が100分の1、ブロック131の学習率が1000分の1である。学習装置100は、ブロック131~135の学習率の比率を、ブロック131~135の更新頻度と定義する。よって、ブロック135の重みの更新との関係で、ブロック134の更新頻度は2分の1、ブロック133の更新頻度は10分の1、ブロック132の更新頻度は100分の1、ブロック131の更新頻度は1000分の1となる。
更新頻度テーブル127は、ブロック131~135の更新頻度を示す。学習装置100は、更新頻度の管理のために更新頻度テーブル127を生成してもよい。更新頻度テーブル127は、モデル種類、ブロック名、学習率、更新頻度および削減率の項目を含む。
図12は、学習装置の機能例を示すブロック図である。
学習装置100は、既存モデル記憶部121、訓練データ記憶部122、モデル記憶部123、機械学習部124、学習率設定部125および更新頻度制御部126を有する。
(S10)学習率設定部125は、モデルに含まれるブロック131~135それぞれに対して学習率の初期値を設定する。学習率の初期値はユーザから指定される。
(S13)更新頻度制御部126は、ブロック131~135の中から現在の学習率が0のブロックを検索する。学習率が0のブロックがある場合、更新頻度制御部126は、そのブロックの更新頻度を0にして、そのブロックの重みの更新を停止する。
(S21)GPU104-1~104-4は、モデルの入力に近い方から優先的にブロックを1つ選択する。よって、ブロック131、ブロック132、ブロック133、ブロック134、ブロック135の順に選択されることになる。なお、BackwardフェーズからCommunicateフェーズに進むにあたり、GPU104-1~104-4は、バリア同期などによって同期をとるようにしてもよい。
11 記憶部
12 処理部
13 モデル
14,15 ブロック
14a,15a パラメータ
14b,15b 学習率
16 訓練データ
Claims (8)
- コンピュータに、
第1のパラメータを含む第1のブロックおよび第2のパラメータを含む第2のブロックを含むモデルにおいて、前記第1のブロックに対して第1の学習率を設定し、前記第2のブロックに対して前記第1の学習率より小さい第2の学習率を設定し、
訓練データを用いて算出された前記モデルの予測誤差と前記第1の学習率とに基づいて前記第1のパラメータを更新し、前記予測誤差と前記第2の学習率とに基づいて前記第2のパラメータを更新する、ことを反復的に実行する学習処理を開始し、
前記第1の学習率と前記第2の学習率との間の関係に応じて、前記学習処理において、前記第2のパラメータの更新を間欠的に省略することで、前記第2のパラメータの更新頻度が前記第1のパラメータより低くなるよう制御する、
処理を実行させる学習プログラム。 - 前記制御では、前記第1の学習率と前記第2の学習率との比に応じて、前記学習処理における前記第2のパラメータの更新頻度を決定する、
請求項1記載の学習プログラム。 - 前記制御では、前記第1の学習率および前記第2の学習率の少なくとも一方が前記学習処理の途中で変更されたことを検出し、変更後の前記第1の学習率と前記第2の学習率との間の関係に応じて、前記第2のパラメータの更新頻度を変更する、
請求項1記載の学習プログラム。 - 前記制御では、前記第2の学習率が閾値以下であるか判定し、前記第2の学習率が前記閾値以下である場合は前記第2のパラメータの更新を停止する、
請求項1記載の学習プログラム。 - 前記第1のブロックは、前記学習処理の開始の際に前記第1のパラメータが初期化される新規ブロックであり、前記第2のブロックは、他の訓練データを用いて学習された前記第2のパラメータが前記学習処理の開始の際に引き継がれる既存ブロックであり、
前記第2のブロックの位置は、前記第1のブロックよりも前記モデルの入力に近い、
請求項1記載の学習プログラム。 - 前記学習処理は、前記訓練データから前記予測誤差を算出する第1のフェーズと、前記予測誤差の情報を前記モデルの出力から入力に向かって逆伝播する第2のフェーズと、並列処理に用いる複数の演算器の間で前記逆伝播の結果を合成する第3のフェーズと、合成した前記逆伝播の結果に基づいてパラメータを更新する第4のフェーズとを含み、
前記制御では、前記第2のブロックにおいて、前記第2のフェーズと前記第3のフェーズと前記第4のフェーズとを間欠的に省略する、
請求項1記載の学習プログラム。 - コンピュータが、
第1のパラメータを含む第1のブロックおよび第2のパラメータを含む第2のブロックを含むモデルにおいて、前記第1のブロックに対して第1の学習率を設定し、前記第2のブロックに対して前記第1の学習率より小さい第2の学習率を設定し、
訓練データを用いて算出された前記モデルの予測誤差と前記第1の学習率とに基づいて前記第1のパラメータを更新し、前記予測誤差と前記第2の学習率とに基づいて前記第2のパラメータを更新する、ことを反復的に実行する学習処理を開始し、
前記第1の学習率と前記第2の学習率との間の関係に応じて、前記学習処理において、前記第2のパラメータの更新を間欠的に省略することで、前記第2のパラメータの更新頻度が前記第1のパラメータより低くなるよう制御する、
学習方法。 - 訓練データと、第1のパラメータを含む第1のブロックおよび第2のパラメータを含む第2のブロックを含むモデルと、を記憶する記憶部と、
前記第1のブロックに対して第1の学習率を設定し、前記第2のブロックに対して前記第1の学習率より小さい第2の学習率を設定し、前記訓練データを用いて算出された前記モデルの予測誤差と前記第1の学習率とに基づいて前記第1のパラメータを更新し、前記予測誤差と前記第2の学習率とに基づいて前記第2のパラメータを更新する、ことを反復的に実行する学習処理を開始し、前記第1の学習率と前記第2の学習率との間の関係に応じて、前記第2のパラメータの更新を間欠的に省略することで、前記第2のパラメータの更新頻度が前記第1のパラメータより低くなるよう制御する処理部と、
を有する学習装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019214496A JP7295431B2 (ja) | 2019-11-27 | 2019-11-27 | 学習プログラム、学習方法および学習装置 |
US17/065,554 US20210158212A1 (en) | 2019-11-27 | 2020-10-08 | Learning method and learning apparatus |
EP20202259.6A EP3828776A1 (en) | 2019-11-27 | 2020-10-16 | Program, learning method, and learning apparatus |
CN202011202775.9A CN112862087A (zh) | 2019-11-27 | 2020-11-02 | 学习方法、学习设备及非暂态计算机可读记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019214496A JP7295431B2 (ja) | 2019-11-27 | 2019-11-27 | 学習プログラム、学習方法および学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021086371A JP2021086371A (ja) | 2021-06-03 |
JP7295431B2 true JP7295431B2 (ja) | 2023-06-21 |
Family
ID=73005300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019214496A Active JP7295431B2 (ja) | 2019-11-27 | 2019-11-27 | 学習プログラム、学習方法および学習装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210158212A1 (ja) |
EP (1) | EP3828776A1 (ja) |
JP (1) | JP7295431B2 (ja) |
CN (1) | CN112862087A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
JP2023046868A (ja) * | 2021-09-24 | 2023-04-05 | 富士通株式会社 | 機械学習プログラム、機械学習方法および情報処理装置 |
JP7262654B1 (ja) | 2022-07-11 | 2023-04-21 | アクタピオ,インコーポレイテッド | 情報処理方法、情報処理装置および情報処理プログラム |
WO2024054646A2 (en) * | 2022-09-08 | 2024-03-14 | University Of Florida Research Foundation, Incorporated | Techniques for predicting and treating post-operative outcomes in surgery patients |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180174040A1 (en) | 2016-12-20 | 2018-06-21 | Michael I. Davies | Trace-based neuromorphic architecture for advanced learning |
JP2018205858A (ja) | 2017-05-31 | 2018-12-27 | キヤノン株式会社 | 学習装置、認識装置、学習方法及びプログラム |
WO2019126535A1 (en) | 2017-12-21 | 2019-06-27 | The University Of Chicago | Combined learned and dynamic control system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6269351B1 (en) * | 1999-03-31 | 2001-07-31 | Dryken Technologies, Inc. | Method and system for training an artificial neural network |
JP2017182320A (ja) | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
CN106600059B (zh) * | 2016-12-13 | 2020-07-24 | 北京邮电大学 | 基于改进rbf神经网络的智能电网短期负荷预测方法 |
US20190095794A1 (en) * | 2017-09-26 | 2019-03-28 | Intel Corporation | Methods and apparatus for training a neural network |
US11003992B2 (en) * | 2017-10-16 | 2021-05-11 | Facebook, Inc. | Distributed training and prediction using elastic resources |
US10515296B2 (en) * | 2017-11-14 | 2019-12-24 | Adobe Inc. | Font recognition by dynamically weighting multiple deep learning neural networks |
CN110033019B (zh) * | 2019-03-06 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 人体部位的异常检测方法、装置和存储介质 |
-
2019
- 2019-11-27 JP JP2019214496A patent/JP7295431B2/ja active Active
-
2020
- 2020-10-08 US US17/065,554 patent/US20210158212A1/en not_active Abandoned
- 2020-10-16 EP EP20202259.6A patent/EP3828776A1/en not_active Withdrawn
- 2020-11-02 CN CN202011202775.9A patent/CN112862087A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180174040A1 (en) | 2016-12-20 | 2018-06-21 | Michael I. Davies | Trace-based neuromorphic architecture for advanced learning |
JP2018205858A (ja) | 2017-05-31 | 2018-12-27 | キヤノン株式会社 | 学習装置、認識装置、学習方法及びプログラム |
WO2019126535A1 (en) | 2017-12-21 | 2019-06-27 | The University Of Chicago | Combined learned and dynamic control system |
Also Published As
Publication number | Publication date |
---|---|
EP3828776A1 (en) | 2021-06-02 |
CN112862087A (zh) | 2021-05-28 |
US20210158212A1 (en) | 2021-05-27 |
JP2021086371A (ja) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7295431B2 (ja) | 学習プログラム、学習方法および学習装置 | |
CN109313720B (zh) | 具有稀疏访问的外部存储器的增强神经网络 | |
US8761496B2 (en) | Image processing apparatus for calculating a degree of similarity between images, method of image processing, processing apparatus for calculating a degree of approximation between data sets, method of processing, computer program product, and computer readable medium | |
US20220301288A1 (en) | Control method and information processing apparatus | |
US20220067940A1 (en) | Robust machine learning for imperfect labeled image segmentation | |
US20210357740A1 (en) | Second-order optimization methods for avoiding saddle points during the training of deep neural networks | |
CN111985631B (zh) | 信息处理设备、信息处理方法及计算机可读记录介质 | |
WO2023284770A1 (zh) | 张量程序优化方法及装置 | |
CN109858615A (zh) | 具有记忆的低通递归神经网络系统 | |
US20230268035A1 (en) | Method and apparatus for generating chemical structure using neural network | |
CN113850364A (zh) | 非暂态计算机可读记录介质、学习方法和信息处理设备 | |
JP7444235B2 (ja) | 注意機構、画像認識システム、特徴変換方法およびプログラム | |
JP2019204214A (ja) | 学習装置、学習方法、プログラム及び推定装置 | |
US20210397948A1 (en) | Learning method and information processing apparatus | |
JP2023044336A (ja) | 学習装置、学習方法およびプログラム | |
EP4348507A1 (en) | Scaling deep graph learning in distributed setting | |
US20230334315A1 (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
CN113095328A (zh) | 一种基尼指数引导的基于自训练的语义分割方法 | |
JP6810365B2 (ja) | 学習済みモデル、プログラム | |
JP7436830B2 (ja) | 学習プログラム、学習方法、および学習装置 | |
WO2022190301A1 (ja) | 学習装置、学習方法、及びコンピュータ可読媒体 | |
US20230316731A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
Duran-Dominguez et al. | Improving the accuracy of prediction applications by efficient tuning of gradient descent using genetic algorithms | |
JP2021120825A (ja) | 学習装置、学習方法、及び学習プログラム | |
JP2023073825A (ja) | 画像処理装置およびその制御方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220809 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230428 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7295431 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |