JP6942900B1 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP6942900B1 JP6942900B1 JP2021067136A JP2021067136A JP6942900B1 JP 6942900 B1 JP6942900 B1 JP 6942900B1 JP 2021067136 A JP2021067136 A JP 2021067136A JP 2021067136 A JP2021067136 A JP 2021067136A JP 6942900 B1 JP6942900 B1 JP 6942900B1
- Authority
- JP
- Japan
- Prior art keywords
- function
- learning
- data
- neural network
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Abstract
Description
<処理構成>
図1は、実施形態に係る情報処理装置10の物理的構成の一例を示す図である。情報処理装置10は、演算部に相当するCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。
図2は、実施形態に係る情報処理装置10の処理ブロックの一例を示す図である。情報処理装置10は、取得部11、学習部12、調整部13、生成部14、選択部15、出力部16、及び記憶部17を備える。情報処理装置10は、汎用のコンピュータで構成されてもよい。
隠れ層の関数として、活性化関数を例にする場合、第1関数に用いられる複数の関数は、活性化関数として適用される関数を含み、第2関数は、活性化関数に関する関数を含む。第2関数は、例えば、調整後の重みが各活性化関数に乗算されて新たに生成される関数である。
F1(x)=W1A1+W2A2+W3A3…+WnAn 式(1)
Wn:重み
An:活性化関数
F2(x)=W1AR1+W2AR2+W3AR3…+WnARn 式(2)
Wn:重み
ARn:微分可能な活性化関数(平滑化の活性化関数)
隠れ層の関数として、正規化関数又は標準化関数を例にする場合、第1関数に用いられる複数の関数は、正規化関数又は標準化関数として適用される関数を含み、第2関数は、正規化関数又は標準化関数に関する関数を含む。ここで、正規化関数及び標準化関数をまとめて次元圧縮関数と呼ぶ。第2関数は、例えば、調整後の重みが各次元圧縮関数に乗算されて新たに生成される関数である。
F3(x)=W1N1+W2N2+W3N3…+WnNn 式(3)
Wn:重み
Nn:次元圧縮関数
隠れ層の関数として、ノイズ除去(denoising operation)に関する関数を例にする場合、第1関数に用いられる複数の関数は、ノイズ除去関数として適用される関数を含み、第2関数は、ノイズ除去関数に関する関数を含む。第2関数は、例えば、調整後の重みが各ノイズ除去関数に乗算されて新たに生成される関数である。
F4(x)=W1D1+W2D2+W3D3…+WnDn 式(4)
Wn:重み
Dn:ノイズ除去関数
隠れ層の関数として、平滑化に関する関数を例にする場合、第1関数に用いられる複数の関数は、平滑化関数として適用される関数を含み、第2関数は、平滑化関数に関する関数を含む。第2関数は、例えば、調整後の重みが各平滑化関数に乗算されて新たに生成される関数である。
F5(x)=W1S1+W2S2+W3S3…+WnSn 式(5)
Wn:重み
Sn:平滑化関数
隠れ層の関数として、正則化に関する関数を例にする場合、第1関数に用いられる複数の関数は、正則化関数として適用される関数を含み、第2関数は、正則化関数に関する関数を含む。第2関数は、例えば、調整後の重みが各正則化関数に乗算されて新たに生成される関数である。
・Flooding[Ishida,2020]などである。第1関数は、上述した正則化関数を含む正則化関数ライブラリの中から任意の正則化関数が選択されて生成されてもよい。なお、正則化関数ライブラリに含まれる正則化関数は、上記例に限られるものではなく、正則化関数として適用可能な関数を含んでもよい。
F6(x)=W1L1+W2L2+W3L3…+WnLn 式(6)
Wn:重み
Ln:正則化関数
図5は、実施形態に係る関数ライブラリの一例を示す図である。図5に示す例では、関数IDごとに関数が関連付けられている。例えば、関数ライブラリが、活性化関数ライブラリであれば、関数1はSwish、関数2はGaussian Error Linear Unitなどである。また、関数ライブラリにIDを付与し、関数ライブラリIDごとに、活性化関数ライブラリ、次元圧縮関数ライブラリ、ノイズ除去関数ライブラリ、平滑化処理ライブラリ、正則化ライブラリなどが記憶部17に記憶されてもよい。
図7は、実施形態に係る学習フェーズにおける処理の一例を示すフローチャートである。図7に示す処理は、情報処理装置10により実行される。
Claims (20)
- 所定の学習データを取得する取得部と、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数を前記隠れ層の所定のノード群に共通して適用する前記学習モデルに、前記所定の学習データを入力して学習を行う学習部と、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整する調整部と、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成する生成部と、
を備える情報処理装置。 - 所定の学習データを取得する取得部と、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数を適用する前記学習モデルに、前記所定の学習データを入力して学習を行う学習部と、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整する調整部と、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成する生成部と、
前記第2関数と前記所定の学習データの種類とを対応付けて記憶する記憶部と、
を備える情報処理装置。 - 前記各関数に活性化関数が用いられる場合、平滑化された活性化関数を含む第1群と、任意の活性化関数を含む第2群とのうち、いずれかの群を選択する選択部をさらに備え、
前記第1関数に用いられる複数の関数は、選択された群の中の活性化関数が用いられる、請求項1又は2に記載の情報処理装置。 - 前記各関数は、正規化関数、標準化関数、ノイズ除去関数、平滑化関数、及び正則化関数のいずれか1つの関数である、請求項1又は2に記載の情報処理装置。
- 情報処理装置に備えられたプロセッサが、
所定の学習データを取得することと、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数を前記隠れ層の所定のノード群に共通して適用する前記学習モデルに、前記所定の学習データを入力して学習を行うことと、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整すること、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成することと、
を実行する情報処理方法。 - 情報処理装置に備えられたプロセッサが、
所定の学習データを取得することと、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数を適用する前記学習モデルに、前記所定の学習データを入力して学習を行うことと、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整すること、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成することと、
前記第2関数と前記所定の学習データの種類とを対応付けることと、
を実行する情報処理方法。 - 情報処理装置に備えられたプロセッサに、
所定の学習データを取得することと、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数を前記隠れ層の所定のノード群に共通して適用する前記学習モデルに、前記所定の学習データを入力して学習を行うことと、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整すること、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成することと、
を実行させるプログラム。 - 情報処理装置に備えられたプロセッサに、
所定の学習データを取得することと、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数を適用する前記学習モデルに、前記所定の学習データを入力して学習を行うことと、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整すること、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成することと、
前記第2関数と前記所定の学習データの種類とを対応付けることと、
を実行させるプログラム。 - 情報処理装置に備えられたプロセッサが、
所定のデータを取得すること、
学習モデルにおけるニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数として、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される第2関数が前記隠れ層の所定のノード群に共通して適用される、前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行する情報処理方法。 - 情報処理装置に備えられたプロセッサが、
所定のデータを取得すること、
前記所定のデータの特徴に基づいて当該所定のデータの種類を特定すること、
前記所定のデータの各種類に対応する第2関数を記憶する記憶部から、特定された種類に対応する第2関数を抽出することであって、前記第2関数は、学習モデルにおけるニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数に対し、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される関数である、抽出すること、
前記第2関数が前記隠れ層に適用される前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行する情報処理方法。 - プロセッサを備える情報処理装置であって、
前記プロセッサが、
所定のデータを取得すること、
学習モデルにおけるニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数として、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される第2関数が前記隠れ層の所定のノード群に共通して適用される、前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行する情報処理装置。 - プロセッサを備える情報処理装置であって、
前記プロセッサが、
所定のデータを取得すること、
前記所定のデータの特徴に基づいて当該所定のデータの種類を特定すること、
前記所定のデータの各種類に対応する第2関数を記憶する記憶部から、特定された種類に対応する第2関数を抽出することであって、前記第2関数は、学習モデルにおけるニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数に対し、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される関数である、抽出すること、
前記第2関数が前記隠れ層に適用される前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行する情報処理装置。 - 情報処理装置に備えられたプロセッサに、
所定のデータを取得すること、
学習モデルにおけるニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数として、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される第2関数が前記隠れ層の所定のノード群に共通して適用される、前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行させるプログラム。 - 情報処理装置に備えられたプロセッサに、
所定のデータを取得すること、
前記所定のデータの特徴に基づいて当該所定のデータの種類を特定すること、
前記所定のデータの各種類に対応する第2関数を記憶する記憶部から、特定された種類に対応する第2関数を抽出することであって、前記第2関数は、学習モデルにおけるニューラルネットワークの隠れ層に使用可能な各関数に重み付けして生成される第1関数に対し、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される関数である、抽出すること、
前記第2関数が前記隠れ層に適用される前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行させるプログラム。 - 所定の学習データを取得する取得部と、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な平滑化された各活性化関数に重み付けして生成される第1関数を適用する前記学習モデルに、前記所定の学習データを入力して学習を行う学習部と、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整する調整部と、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成する生成部と、
を備える情報処理装置。 - 情報処理装置に備えられたプロセッサが、
所定の学習データを取得することと、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な平滑化された各活性化関数に重み付けして生成される第1関数を適用する前記学習モデルに、前記所定の学習データを入力して学習を行うことと、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整すること、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成することと、
を実行する情報処理方法。 - 情報処理装置に備えられたプロセッサに、
所定の学習データを取得することと、
ニューラルネットワークを用いる学習モデルであって、前記ニューラルネットワークの隠れ層に使用可能な平滑化された各活性化関数に重み付けして生成される第1関数を適用する前記学習モデルに、前記所定の学習データを入力して学習を行うことと、
前記所定の学習データの教師ラベルに基づいて、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新される場合、前記第1関数の各重みを調整すること、
前記学習の結果、調整後の前記各重みが前記第1関数に設定される第2関数を生成することと、
を実行させるプログラム。 - 情報処理装置に備えられたプロセッサが、
所定のデータを取得すること、
学習モデルにおけるニューラルネットワークの隠れ層に使用可能な平滑化された各活性化関数に重み付けして生成される第1関数として、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される第2関数が適用される、前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行する情報処理方法。 - プロセッサを備える情報処理装置であって、
前記プロセッサが、
所定のデータを取得すること、
学習モデルにおけるニューラルネットワークの隠れ層に使用可能な平滑化された各活性化関数に重み付けして生成される第1関数として、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される第2関数が適用される、前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行する情報処理装置。 - 情報処理装置に備えられたプロセッサに、
所定のデータを取得すること、
学習モデルにおけるニューラルネットワークの隠れ層に使用可能な平滑化された各活性化関数に重み付けして生成される第1関数として、誤差逆伝搬法を用いて前記ニューラルネットワークのパラメータが更新され、前記第1関数の各重みが調整された場合の調整後の各重みが前記第1関数に設定される第2関数が適用される、前記学習モデルに前記所定のデータを入力して学習を行うことと、
前記学習の結果を出力すること、
を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067136A JP6942900B1 (ja) | 2021-04-12 | 2021-04-12 | 情報処理装置、情報処理方法及びプログラム |
CN202210259961.9A CN115204352B (zh) | 2021-04-12 | 2022-03-16 | 信息处理装置、信息处理方法和存储介质 |
US17/718,141 US20220327365A1 (en) | 2021-04-12 | 2022-04-11 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067136A JP6942900B1 (ja) | 2021-04-12 | 2021-04-12 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6942900B1 true JP6942900B1 (ja) | 2021-09-29 |
JP2022162348A JP2022162348A (ja) | 2022-10-24 |
Family
ID=77847085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021067136A Active JP6942900B1 (ja) | 2021-04-12 | 2021-04-12 | 情報処理装置、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220327365A1 (ja) |
JP (1) | JP6942900B1 (ja) |
CN (1) | CN115204352B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7199121B1 (ja) | 2022-04-27 | 2023-01-05 | 望 窪田 | 計算グラフの改善 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
US11948346B1 (en) | 2023-06-22 | 2024-04-02 | The Adt Security Corporation | Machine learning model inference using user-created machine learning models while maintaining user privacy |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200005143A1 (en) * | 2019-08-30 | 2020-01-02 | Intel Corporation | Artificial neural network with trainable activation functions and fractional derivative values |
WO2020189498A1 (ja) * | 2019-03-15 | 2020-09-24 | 株式会社 Geek Guild | 学習装置、方法及びプログラム |
JP2020160564A (ja) * | 2019-03-25 | 2020-10-01 | 株式会社エヌエスアイテクス | ニューラルネットワークの演算装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102214320A (zh) * | 2010-04-12 | 2011-10-12 | 宋威 | 神经网络训练方法及采用该方法的垃圾邮件过滤方法 |
CN106096728B (zh) * | 2016-06-03 | 2018-08-24 | 南京航空航天大学 | 一种基于深层极限学习机的危险源识别方法 |
CN106991480A (zh) * | 2017-01-24 | 2017-07-28 | 杭州电子科技大学 | 一种基于尺度变换激活函数的超限学习机的改进方法 |
WO2019017403A1 (ja) * | 2017-07-19 | 2019-01-24 | 日本電信電話株式会社 | マスク計算装置、クラスタ重み学習装置、マスク計算ニューラルネットワーク学習装置、マスク計算方法、クラスタ重み学習方法及びマスク計算ニューラルネットワーク学習方法 |
CN108898213B (zh) * | 2018-06-19 | 2021-12-17 | 浙江工业大学 | 一种面向深度神经网络的自适应激活函数参数调节方法 |
CN110288080A (zh) * | 2019-06-03 | 2019-09-27 | 北京信息科技大学 | 一种基于selu及fw机制的神经网络模型及学习方法 |
-
2021
- 2021-04-12 JP JP2021067136A patent/JP6942900B1/ja active Active
-
2022
- 2022-03-16 CN CN202210259961.9A patent/CN115204352B/zh active Active
- 2022-04-11 US US17/718,141 patent/US20220327365A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020189498A1 (ja) * | 2019-03-15 | 2020-09-24 | 株式会社 Geek Guild | 学習装置、方法及びプログラム |
JP2020160564A (ja) * | 2019-03-25 | 2020-10-01 | 株式会社エヌエスアイテクス | ニューラルネットワークの演算装置 |
US20200005143A1 (en) * | 2019-08-30 | 2020-01-02 | Intel Corporation | Artificial neural network with trainable activation functions and fractional derivative values |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7199121B1 (ja) | 2022-04-27 | 2023-01-05 | 望 窪田 | 計算グラフの改善 |
JP2023162911A (ja) * | 2022-04-27 | 2023-11-09 | 望 窪田 | 計算グラフの改善 |
Also Published As
Publication number | Publication date |
---|---|
CN115204352B (zh) | 2024-03-12 |
CN115204352A (zh) | 2022-10-18 |
US20220327365A1 (en) | 2022-10-13 |
JP2022162348A (ja) | 2022-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942900B1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Zhang et al. | An overview of recent developments in Lyapunov–Krasovskii functionals and stability criteria for recurrent neural networks with time-varying delays | |
US11227188B2 (en) | Computer system for building, training and productionizing machine learning models | |
JP7009614B2 (ja) | ディープニューラルネットワークの正規化方法および装置、機器、ならびに記憶媒体 | |
CN109544306B (zh) | 一种基于用户行为序列特征的跨领域推荐方法及装置 | |
US11574096B1 (en) | Systems and methods for time series simulation | |
US11694165B2 (en) | Key-value memory network for predicting time-series metrics of target entities | |
Yu et al. | A user-based cross domain collaborative filtering algorithm based on a linear decomposition model | |
US20210166131A1 (en) | Training spectral inference neural networks using bilevel optimization | |
Makwe et al. | An empirical study of neural network hyperparameters | |
US11847389B2 (en) | Device and method for optimizing an input parameter in a processing of a semiconductor | |
WO2023210665A1 (ja) | 計算グラフの改善 | |
US20230046601A1 (en) | Machine learning models with efficient feature learning | |
Luo et al. | Image classification with a MSF dropout | |
Tselykh et al. | Effect of resonance in the effective control model based on the spread of influence on directed weighted signed Graphs | |
Romanenko et al. | Application of impulse process models with multirate sampling in cognitive maps of cryptocurrency for dynamic decision making | |
US20230359704A1 (en) | Centralized repository and data sharing hub for establishing model sufficiency | |
Nhose et al. | A CNN-Based Model to Forecast the South African Unemployment Rate | |
US20230342587A1 (en) | Ontology change graph publishing system | |
Gusmão et al. | Artificial Neural Network Overview | |
US20230351491A1 (en) | Accelerated model training for real-time prediction of future events | |
US20220351257A1 (en) | Specialty goods price evaluation using social networks-based producers representation | |
US20230351169A1 (en) | Real-time prediction of future events using integrated input relevancy | |
Chen | Prediction Calculation of Stock Composite Index Closing Price Based on Grey Correlation Analysis Method | |
US20230351493A1 (en) | Efficient processing of extreme inputs for real-time prediction of future events |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210413 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210413 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6942900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |