JP6749530B1 - 構造変換装置、構造変換方法及び構造変換プログラム - Google Patents
構造変換装置、構造変換方法及び構造変換プログラム Download PDFInfo
- Publication number
- JP6749530B1 JP6749530B1 JP2020533169A JP2020533169A JP6749530B1 JP 6749530 B1 JP6749530 B1 JP 6749530B1 JP 2020533169 A JP2020533169 A JP 2020533169A JP 2020533169 A JP2020533169 A JP 2020533169A JP 6749530 B1 JP6749530 B1 JP 6749530B1
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- evaluation value
- processing time
- structure conversion
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 title claims description 36
- 238000013528 artificial neural network Methods 0.000 claims abstract description 112
- 238000012545 processing Methods 0.000 claims abstract description 103
- 238000004364 calculation method Methods 0.000 claims abstract description 70
- 230000009467 reduction Effects 0.000 claims description 75
- 238000011156 evaluation Methods 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 23
- 238000004904 shortening Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
特許文献1には、処理速度向上目標に基づきパラメータについての全層合計の列次元削減量を決定し、入力層に近い層ほど削減量が少なくなるように各層の列次元削減量を決定することが記載されている。また、特許文献2には、ネットワークのパラメータをランダムに削減して再学習し、認識精度から決まるコストが削減前から改善したときに削減後のネットワークに変換することが記載されている。
本開示は、ニューラルネットワークの認識精度を必要以上に低下させずに、要求性能を達成できるようすることを目的とする。
ニューラルネットワークが実装される演算器の性能情報に基づき、前記ニューラルネットワークを前記演算器に実装した場合における前記ニューラルネットワークの処理にかかる処理時間を計算する処理時間計算部と、
前記処理時間計算部によって計算された前記処理時間が要求時間よりも長いか否かを判定する達成判定部と、
前記達成判定部によって前記処理時間が前記要求時間よりも長いと判定された場合に、前記ニューラルネットワークの構造を変換し、前記達成判定部によって前記処理時間が前記要求時間以下と判定された場合に、前記ニューラルネットワークの構造を変換しない構造変換部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る構造変換装置10のハードウェア構成の一例を説明する。
構造変換装置10は、ニューラルネットワークの構造を変換するコンピュータである。
構造変換装置10は、プロセッサ11と、記憶装置12と、学習用演算器13とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
また、記憶装置12は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
構造変換装置10は、機能構成要素として、情報取得部21と、解析部22と、達成判定部23と、再学習部24と、情報出力部25とを備える。解析部22は、処理時間計算部221と、削減率計算部222と、短縮効率計算部223と、評価値計算部224と、構造変換部225とを備える。構造変換装置10の各機能構成要素の機能はソフトウェアにより実現される。
図3及び図4を参照して、実施の形態1に係る構造変換装置10の動作を説明する。
実施の形態1に係る構造変換装置10の動作手順は、実施の形態1に係る構造変換方法に相当する。また、実施の形態1に係る構造変換装置10の動作を実現するプログラムは、実施の形態1に係る構造変換プログラムに相当する。
構造変換装置10は、図3に示す処理を実行することにより、ニューラルネットワークの構造を変換して、新しいニューラルネットワークを生成する。
情報取得部21は、構造情報31と、性能情報32と、要求情報33とを取得する。
具体的には、構造変換装置10の使用者等によって設定された構造情報31と性能情報32と要求情報33とを記憶装置12から読み出す。
解析部22の処理時間計算部221は、構造情報31及び性能情報32を参照して、ニューラルネットワークを実装先演算器に実装した場合におけるニューラルネットワークの認識処理にかかる処理時間を計算する。
処理時間の計算方法について詳しくは後述する。
達成判定部23は、ニューラルネットワークの性能が要求を満たすか否かを判定する。具体的には、達成判定部23は、ステップS12で計算された処理時間が要求情報33が示す要求時間よりも長いか否かを判定する。
達成判定部23は、処理時間が要求時間よりも長い場合には、処理をステップS14に進める。一方、達成判定部23は、処理時間が要求時間以下の場合には、処理をステップS19に進める。
解析部22の評価値計算部224は、ニューラルネットワークを構成する複数の層それぞれを対象の層として、対象の層におけるパラメータの削減優先度を表す評価値を計算する。パラメータは、1層分のニューラルネットワークの構造を決定する特徴である。具体例としては、全結合層であれば、パラメータはニューロンであり、畳み込み層であれば、パラメータはチャネルである。
評価値の計算方法について詳しくは後述する。
解析部22の構造変換部225は、ステップS14で計算された評価値が最も高い層を削減層として特定する。つまり、構造変換部225は、最も削減優先度が高い層を削減層として特定する。
そして、構造変換部225は、削減層における削減数のパラメータを削減する。削減数は、1以上の整数である。実施の形態1では、削減数を1個とする。構造変換部225は、パラメータを削減することにより、ニューラルネットワークの構造を変換して新しいニューラルネットワークを生成する。なお、削減するパラメータは、既存技術を用いて選択されればよい。
解析部22の処理時間計算部221は、構造情報31及び性能情報32を参照して、ステップS15で生成された新しいニューラルネットワークを実装先演算器に実装した場合におけるニューラルネットワークの認識処理にかかる処理時間を計算する。
処理時間の計算方法について詳しくは後述する。
達成判定部23は、新しいニューラルネットワークの性能が要求を満たすか否かを判定する。具体的には、達成判定部23は、ステップS16で計算された処理時間が要求情報33が示す要求時間よりも長いか否かを判定する。
達成判定部23は、処理時間が要求時間よりも長い場合には、処理をステップS14に戻す。一方、達成判定部23は、処理時間が要求時間以下の場合には、処理をステップS18に進める。
つまり、ステップS14からステップS18の処理が繰り返し実行されることにより、ニューラルネットワークの性能が要求を満たすまでニューラルネットワークの構造が少しずつ変更される。つまり、ニューラルネットワークの処理時間が要求時間以下になるまでニューラルネットワークの構造が少しずつ変更される。
再学習部24は、学習用データセット34を入力として、直近のステップS15の処理で生成された新しいニューラルネットワークに対する再学習を行う。これにより、新しいニューラルネットワークの認識精度を高くする。
そして、再学習部24は、再学習後のニューラルネットワークについての構造を示す新しい構造情報35を生成する。新しい構造情報35は、構造情報31と同様に、ニューラルネットワークを構成する複数の層それぞれにおける、層の種類と、重み情報と、ニューロンと、特徴マップと、フィルタのサイズといった推論処理の内容を明らかにするために必要な情報である。
情報出力部25は、ステップS13で処理時間が要求時間よりも長いと判定された場合には、ステップS18で生成された新しい構造情報35を出力する。一方、情報出力部25は、ステップS13で処理時間が要求時間以下と判定された場合には、ステップS11で取得された構造情報31を出力する。
処理時間計算部221は、式1に示すように、ニューラルネットワークを構成する各層の処理にかかる処理時間を合計することにより、ニューラルネットワーク全体の処理時間を計算する。
(式1)
処理時間=Σ(1層分の処理時間)
(式2)
1層分の処理時間=(1層分の演算量)/(実装先演算器の演算性能)
(ステップS141:削減率計算処理)
削減率計算部222は、対象の層についての当初パラメータ削減率と現パラメータ削減率とを計算する。当初パラメータ削減率は、当初のニューラルネットワークの対象の層におけるパラメータ数に対するパラメータの削減数yの割合である。現パラメータ削減率は、現在のニューラルネットワークの対象の層におけるパラメータ数に対するパラメータの削減数yの割合である。当初のニューラルネットワークとは、ステップS11で取得された構造情報31が示すニューラルネットワークである。現在のニューラルネットワークとは、既にステップS15で新しいニューラルネットワークが生成されている場合には、ステップS15で生成された最新のニューラルネットワークである。まだステップS15で新しいニューラルネットワークが生成されていない場合には、現在のニューラルネットワークは、当初のニューラルネットワークと同じである。
具体的には、削減率計算部222は、式3により、対象の層Lxについての当初パラメータ削減率Δαx1と現パラメータ削減率Δαx2とを計算する。ここで、yは、削減数である。Nxは、当初のニューラルネットワークの層Lxにおけるパラメータ数である。nxは、現在のニューラルネットワークの層Lxにおけるパラメータ数である。
(式3)
Δαx1=1−(nx−y)/Nx
Δαx2=1−(nx−y)/nx=y/nx
(式4)
Δαx1=1−(nx−1)/Nx
Δαx2=1−(nx−1)/nx=1/nx
短縮効率計算部223は、対象の層についての短縮効率を計算する。短縮効率は、現パラメータ削減率Δαx2に対する、削減数yのパラメータを削減した場合における処理時間の短縮量の割合である。
具体的には、短縮効率計算部223は、式5により、対象の層Lxについての短縮効率Δpxを計算する。ここで、dyは、y個のパラメータを削減した場合における処理時間の短縮量である。
(式5)
Δpx=dy/(y/nx)
(式6)
Δpx=d1/(1/nx)
(式7)
Δp’x=Δpx×q
(式8)
Δp’x=ey/(1/nx)
したがって、削減数yが1個の場合には、演算効率Δp’xは、式9のように表される。
(式9)
Δp’x=e1/(1/nx)
(式10)
Δp’x=(−nx−1−nx+1)/(1/nx)
したがって、短縮効率計算部223は、式11により、対象の層Lxについての短縮効率Δpxを計算できる。
(式11)
Δpx=Δp’x/q=((−nx−1−nx+1)/(1/nx))/q
評価値計算部224は、ステップS141で計算された当初パラメータ削減率Δαx1から重み付け関数gにより得られる重みを、ステップS142で計算された短縮効率Δpxに乗じて、評価値を計算する。つまり、評価値計算部224は、式12により、対象の層Lxについての評価値sxを計算する。
(式12)
sx=Δpx×g(Δαx1)
(式13)
g(z)=(1−z)・q
式13で演算性能qを乗じているのは、演算性能qは定数であり、評価値の大小に影響を与えないため、後述する評価値sxの計算時に演算性能qが用いないようにするためである。
(式14)
sx=(((−nx−1−nx+1)/(1/nx))/q)×(1−(1−(nx−1)/Nx))・q=((−nx−1−nx+1)/(1/nx))×(1−(1−(nx−1)/Nx))
以上のように、実施の形態1に係る構造変換装置10は、ニューラルネットワークを実装先演算器に実装した場合における処理時間を計算し、処理時間が要求時間よりも長い場合にニューラルネットワークの構造を変換する。これにより、必要以上にニューラルネットワークの構造を変換することがない。その結果、ニューラルネットワークの認識精度をできるだけ低下させることなく、要求性能を達成できるようになる。
これにより、要求性能を達成するために必要なパラメータの削減数を少なくすることができる。その結果、構造を変換した後のニューラルネットワークの認識精度の低下を少なくすることができる。また、パラメータ数が少ない層は、短縮効率が低くなり易いため、パラメータを削除する層として選ばれ難い。その結果、一部の層のパラメータが多く削除されてしまい、構造を変換した後のニューラルネットワークの認識精度が低下してしまうといったことを防止できる。
これにより、パラメータ数が少ない層は、パラメータを削除する層として選ばれ難い。その結果、一部の層のパラメータが多く削除されてしまい、構造を変換した後のニューラルネットワークの認識精度が低下してしまうといったことを防止できる。
<変形例1>
実施の形態1では、削減数は1個であるとした。これは、1つパラメータを削除する度に要求性能を達成できたか確認するためである。これにより、不要に多くのパラメータが削除されることを防止している。
しかし、一度に2個以上のパラメータを削除するようにしてもよい。一度に2個以上のパラメータを削除することにより、要求性能を達成する構成に到達するまでの時間を短くすることができる。
実施の形態1では、要求性能を達成した構成のニューラルネットワークについて図3のステップS18で再学習が行われた。しかし、多くのパラメータが削除される等して、ニューラルネットワークの構成が大きく変換された場合には、途中段階で再学習を行うようにしてもよい。
例えば、基準回数だけニューラルネットワークの構成が変換された場合には、再学習を行うようにしてもよい。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例3として、各機能構成要素はハードウェアで実現されてもよい。この変形例3について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、構造変換装置10は、プロセッサ11と記憶装置12と学習用演算器13とに代えて、電子回路を備える。電子回路は、各機能構成要素と、記憶装置12との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路で実現してもよいし、各機能構成要素を複数の電子回路に分散させて実現してもよい。
変形例4として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
Claims (8)
- ニューラルネットワークが実装される演算器の性能情報に基づき、前記ニューラルネットワークを前記演算器に実装した場合における前記ニューラルネットワークの処理にかかる処理時間を計算する処理時間計算部と、
前記処理時間計算部によって計算された前記処理時間が要求時間よりも長いか否かを判定する達成判定部と、
前記ニューラルネットワークを構成する複数の層それぞれを対象の層として、前記対象の層におけるパラメータの削減優先度を表す評価値を計算する評価値計算部と、
前記達成判定部によって前記処理時間が前記要求時間よりも長いと判定された場合に、前記評価値計算部によって計算された前記評価値が高い層のパラメータを削減することにより、前記ニューラルネットワークの構造を変換して新しいニューラルネットワークを生成し、前記達成判定部によって前記処理時間が前記要求時間以下と判定された場合に、前記ニューラルネットワークの構造を変換しない構造変換部と
を備え、
前記評価値計算部は、当初のニューラルネットワークと前記構造変換部によって変換される前の現ニューラルネットワークとのそれぞれに対する、パラメータ数の削減率と、パラメータ削減時の処理時間の短縮量との少なくともいずれかに基づいて前記評価値を計算する構造変換装置。 - 前記処理時間計算部は、前記構造変換部によって生成された前記新しいニューラルネットワークの処理時間を計算し、
前記評価値計算部は、前記新しいニューラルネットワークの前記処理時間が前記要求時間よりも長いと判定された場合に、前記ニューラルネットワークを構成する複数の層それぞれを対象の層として、前記評価値を計算し、
前記構造変換部は、前記ニューラルネットワークを構成する複数の層それぞれを対象の層として計算された前記評価値が高い層のパラメータを削減して、前記ニューラルネットワークの構造を変換する
請求項1に記載の構造変換装置。 - 前記評価値計算部は、当初のニューラルネットワークの前記対象の層におけるパラメー
タ数に対するパラメータの削減数の割合である当初パラメータ削減率から、前記評価値を計算する
請求項1又は2に記載の構造変換装置。 - 前記評価値計算部は、削減数のパラメータを削減した場合における処理時間の短縮量から、前記評価値を計算する
請求項1から3までのいずれか1項に記載の構造変換装置。 - 前記評価値計算部は、現在のニューラルネットワークの前記対象の層におけるパラメータ数に対するパラメータの削減数の割合である現パラメータ削減率に対する、前記削減数のパラメータを削減した場合における処理時間の短縮量の割合である短縮効率から、前記評価値を計算する
請求項1から3までのいずれか1項に記載の構造変換装置。 - 前記評価値計算部は、当初のニューラルネットワークの前記対象の層におけるパラメータ数に対するパラメータの削減数の割合である当初パラメータ削減率から得られた重みを、前記短縮効率に乗じて、前記評価値を計算する
請求項5に記載の構造変換装置。 - 処理時間計算部が、ニューラルネットワークが実装される演算器の性能情報に基づき、前記ニューラルネットワークを前記演算器に実装した場合における前記ニューラルネットワークの処理にかかる処理時間を計算し、
達成判定部が、前記処理時間が要求時間よりも長いか否かを判定し、
評価値計算部が、前記ニューラルネットワークを構成する複数の層それぞれを対象の層として、前記対象の層におけるパラメータの削減優先度を表す評価値を計算し、
構造変換部が、前記処理時間が前記要求時間よりも長いと判定された場合に、前記評価値が高い層のパラメータを削減することにより、前記ニューラルネットワークの構造を変換して新しいニューラルネットワークを生成し、前記処理時間が前記要求時間以下と判定された場合に、前記ニューラルネットワークの構造を変換せず、
前記評価値計算部は、当初のニューラルネットワークと前記構造変換部によって変換される前の現ニューラルネットワークとのそれぞれに対する、パラメータ数の削減率と、パラメータ削減時の処理時間の短縮量との少なくともいずれかに基づいて前記評価値を計算する構造変換方法。 - ニューラルネットワークが実装される演算器の性能情報に基づき、前記ニューラルネットワークを前記演算器に実装した場合における前記ニューラルネットワークの処理にかかる処理時間を計算する処理時間計算処理と、
前記処理時間計算処理によって計算された前記処理時間が要求時間よりも長いか否かを判定する達成判定処理と、
前記ニューラルネットワークを構成する複数の層それぞれを対象の層として、前記対象の層におけるパラメータの削減優先度を表す評価値を計算する評価値計算処理と、
前記達成判定処理によって前記処理時間が前記要求時間よりも長いと判定された場合に、前記評価値計算処理によって計算された前記評価値が高い層のパラメータを削減することにより、前記ニューラルネットワークの構造を変換して新しいニューラルネットワークを生成し、前記達成判定処理によって前記処理時間が前記要求時間以下と判定された場合に、前記ニューラルネットワークの構造を変換しない構造変換処理と、
を行う構造変換装置としてコンピュータを機能させ、
前記評価値計算処理では、当初のニューラルネットワークと前記構造変換処理によって変換される前の現ニューラルネットワークとのそれぞれに対する、パラメータ数の削減率と、パラメータ削減時の処理時間の短縮量との少なくともいずれかに基づいて前記評価値
を計算する構造変換プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/004151 WO2021156941A1 (ja) | 2020-02-04 | 2020-02-04 | 構造変換装置、構造変換方法及び構造変換プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6749530B1 true JP6749530B1 (ja) | 2020-09-02 |
JPWO2021156941A1 JPWO2021156941A1 (ja) | 2021-08-12 |
Family
ID=72240842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020533169A Active JP6749530B1 (ja) | 2020-02-04 | 2020-02-04 | 構造変換装置、構造変換方法及び構造変換プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220309351A1 (ja) |
JP (1) | JP6749530B1 (ja) |
TW (1) | TW202131237A (ja) |
WO (1) | WO2021156941A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018109947A (ja) * | 2016-12-30 | 2018-07-12 | 富士通株式会社 | ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 |
US20180341851A1 (en) * | 2017-05-24 | 2018-11-29 | International Business Machines Corporation | Tuning of a machine learning system |
US20190005377A1 (en) * | 2017-06-30 | 2019-01-03 | Advanced Micro Devices, Inc. | Artificial neural network reduction to reduce inference computation time |
JP2019032729A (ja) * | 2017-08-09 | 2019-02-28 | 富士通株式会社 | 演算時間算出方法、演算時間算出装置、演算時間算出プログラム及び演算時間算出システム |
JP2019185275A (ja) * | 2018-04-05 | 2019-10-24 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
-
2020
- 2020-02-04 JP JP2020533169A patent/JP6749530B1/ja active Active
- 2020-02-04 WO PCT/JP2020/004151 patent/WO2021156941A1/ja active Application Filing
- 2020-07-24 TW TW109125085A patent/TW202131237A/zh unknown
-
2022
- 2022-06-14 US US17/839,947 patent/US20220309351A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018109947A (ja) * | 2016-12-30 | 2018-07-12 | 富士通株式会社 | ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 |
US20180341851A1 (en) * | 2017-05-24 | 2018-11-29 | International Business Machines Corporation | Tuning of a machine learning system |
US20190005377A1 (en) * | 2017-06-30 | 2019-01-03 | Advanced Micro Devices, Inc. | Artificial neural network reduction to reduce inference computation time |
JP2019032729A (ja) * | 2017-08-09 | 2019-02-28 | 富士通株式会社 | 演算時間算出方法、演算時間算出装置、演算時間算出プログラム及び演算時間算出システム |
JP2019185275A (ja) * | 2018-04-05 | 2019-10-24 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021156941A1 (ja) | 2021-08-12 |
US20220309351A1 (en) | 2022-09-29 |
WO2021156941A1 (ja) | 2021-08-12 |
TW202131237A (zh) | 2021-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652368B (zh) | 一种数据处理方法及相关产品 | |
TW201915839A (zh) | 對人工神經網路及浮點神經網路進行量化的方法及裝置 | |
JP6965690B2 (ja) | ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 | |
CN113609815B (zh) | 一种电路仿真优化方法、装置、计算机设备及存储介质 | |
TWI796286B (zh) | 一種機器學習系統的訓練方法和訓練系統 | |
JP2019028829A (ja) | 並列処理装置、並列処理方法、及びプログラム | |
CN104598659B (zh) | 对数字电路进行仿真的方法和设备 | |
US12086711B2 (en) | Data dividing method and processor for convolution operation | |
CN112085175B (zh) | 基于神经网络计算的数据处理方法和装置 | |
CN112561050B (zh) | 一种神经网络模型训练方法及装置 | |
CN118410849A (zh) | 确定量化截断值的方法、设备和介质 | |
CN110337636A (zh) | 数据转换方法和装置 | |
CN114819159A (zh) | 深度学习模型的推理方法、装置、设备及存储介质 | |
JP6749530B1 (ja) | 構造変換装置、構造変換方法及び構造変換プログラム | |
TW202001701A (zh) | 影像的量化方法及神經網路的訓練方法 | |
EP3751565B1 (en) | Parameter determination device, method, program and recording medium | |
CN111798263A (zh) | 一种交易趋势的预测方法和装置 | |
US20230161555A1 (en) | System and method performing floating-point operations | |
CN112236749B (zh) | 一种浮点精度检测方法与装置 | |
JP7539959B2 (ja) | 深層学習ネットワーク用の最適化方法及びコンピュータ装置、及びコンピュータ可読記憶媒体 | |
CN114492649B (zh) | 深度学习模型的模型训练方法、装置、设备及存储介质 | |
JP2022164392A (ja) | 推移予測装置、推移予測方法、および、推移予測プログラム | |
WO2020059074A1 (ja) | データ構造、情報処理装置、方法及びプログラム | |
CN117634566A (zh) | 一种模型的量化感知训练方法及装置 | |
CN118211617A (zh) | 一种数据量化方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200616 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200616 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200811 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6749530 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |