JP2018109947A - ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 - Google Patents
ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 Download PDFInfo
- Publication number
- JP2018109947A JP2018109947A JP2017207910A JP2017207910A JP2018109947A JP 2018109947 A JP2018109947 A JP 2018109947A JP 2017207910 A JP2017207910 A JP 2017207910A JP 2017207910 A JP2017207910 A JP 2017207910A JP 2018109947 A JP2018109947 A JP 2018109947A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- parameter matrix
- neural network
- column
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
Description
(外1)
は切り捨てて整数部分を求める処理を表し、即ちk’l整数である)のパラメータ行列に変換する。
(付記1)
ニューラルネットワークの処理速度を向上させるための装置であって、該装置は処理装置を含み、前記処理装置は、
所定の処理速度向上目標に基づいて、訓練されたニューラルネットワークにおける1つ又は複数のパラメータ行列のうち各パラメータ行列の次元削減量を決定し、
各パラメータ行列の次元削減量に基づいて各パラメータ行列に対して前処理を行い、
前記ニューラルネットワークの性能が所定要求を満たすことを確保するように、前処理の結果に基づいて前記ニューラルネットワークを訓練し直して、1つ又は複数の次元削減後のパラメータ行列を取得する、装置。
(付記2)
前記次元削減量は、各パラメータ行列の列次元の削減量を示し、
前記処理装置は、各パラメータ行列について、
該パラメータ行列の各列のパラメータ値に基づいて各列の列スコアを算出し、
該パラメータ行列の前記列次元の削減量に基づいて、列スコアが所定条件を満たしている列のパラメータをゼロに設定することで、前記前処理を行う、付記1に記載の装置。
(付記3)
前記処理装置は、各パラメータ行列について、該パラメータ行列の各列のパラメータの絶対値の和を該列の前記列スコアとして算出する、付記2に記載の装置。
(付記4)
前記処理装置は、各パラメータ行列について、該パラメータ行列の各列の各パラメータに関連する損失重みに基づいて前記列スコアを算出する、付記2に記載の装置。
(付記5)
前記処理装置は、
前記1つ又は複数のパラメータ行列のうち各パラメータ行列の全てのパラメータ及び前記損失重みを正規化し、
各パラメータ行列について、該パラメータ行列の各列の正規化された各パラメータとその損失重みの加重和の和を前記列スコアとして算出する、付記4に記載の装置。
(付記6)
前記処理装置は、ゼロ設定を実行するステップにおいて、
各パラメータ行列について、決定された列次元の削減量及び算出された各列の列スコアに基づいて閾値を決定し、
各パラメータ行列における列スコアが前記閾値よりも小さい列のパラメータをゼロに設定する、付記2に記載の装置。
(付記7)
前記処理装置は、ゼロ設定を実行するステップにおいて、
各パラメータ行列について、算出された各列の列スコアをその大きさに従って並び替え、
決定された列次元の削減量に基づいて、各パラメータ行列における列スコアが上位又は下位の所定数の列のパラメータをゼロに設定する、付記2に記載の装置。
(付記8)
前記処理装置は、対応する列がゼロに設定された前記1つ又は複数のパラメータ行列に基づいて、前記ニューラルネットワークを訓練し直して、前記1つ又は複数の次元削減後のパラメータ行列を取得する、付記2に記載の装置。
(付記9)
前記処理装置は、前記1つ又は複数のパラメータ行列のうち入力層に近いパラメータ行列の列次元の削減量が小さく、且つ全てのパラメータ行列の列次元の削減量の和が前記所定の処理速度向上目標を満たすように、各パラメータ行列の列次元の削減量を決定する、付記2に記載の装置。
(付記10)
前記処理装置は、
各パラメータ行列のゼロに設定された列に基づいて、各パラメータ行列に対応する入力行列の対応する行における要素をゼロに設定し、
対応する列がゼロに設定された1つ又は複数のパラメータ行列及び対応する行がゼロに設定された1つ又は複数の入力行列に基づいて前記ニューラルネットワークを訓練し直して、前記1つ又は複数の次元削減後のパラメータ行列を取得する、付記2に記載の装置。
(付記11)
前記処理装置は、
もう1つの所定の処理速度向上目標に基づいて、訓練し直された前記1つ又は複数の次元削減後のパラメータ行列のうち各パラメータ行列の次元削減量を決定し、
決定された各パラメータ行列の次元削減量に基づいて前処理を再度行い、
前記ニューラルネットワークの性能が前記所定要求を満たすことを確保するように、再度の前処理後の結果に基づいて前記ニューラルネットワークを訓練し直して、1つ又は複数の次元再度削減後のパラメータ行列を取得し、
最終的な処理速度向上目標を満たしている1つ又は複数の次元削減後のパラメータ行列を取得するまで、該決定、該再度の前処理及び該訓練し直しを繰り返して実行する、付記1乃至10の何れかに記載の装置。
(付記12)
前記所定の処理速度向上目標は、前記ニューラルネットワークの性能への影響が許容範囲内になるように決定される、付記1乃至10の何れかに記載の装置。
(付記13)
前記ニューラルネットワークは畳み込みニューラルネットワーク(CNN)を含む、付記1乃至10の何れかに記載の装置。
(付記14)
前記ニューラルネットワークが畳み込みニューラルネットワーク(CNN)である場合、前記1つ又は複数のパラメータ行列は1つ又は複数の畳み込み層及び/又は全結合層のパラメータ行列を表す、付記1乃至10の何れかに記載の装置。
(付記15)
ニューラルネットワークの処理速度を向上させるための方法であって、
所定の処理速度向上目標に基づいて、訓練されたニューラルネットワークにおける1つ又は複数のパラメータ行列のうち各パラメータ行列の次元削減量を決定するステップと、
各パラメータ行列の次元削減量に基づいて各パラメータ行列に対して前処理を行うステップと、
前記ニューラルネットワークの性能が所定要求を満たすことを確保するように、前処理の結果に基づいて前記ニューラルネットワークを訓練し直して、1つ又は複数の次元削減後のパラメータ行列を取得するステップと、を含む、方法。
(付記16)
前記次元削減量は、各パラメータ行列の列次元の削減量を示し、
前記前処理は、
各パラメータ行列について、該パラメータ行列の各列のパラメータ値に基づいて各列の列スコアを算出するステップと、
各パラメータ行列について、該パラメータ行列の前記列次元の削減量に基づいて、列スコアが所定条件を満たしている列のパラメータをゼロに設定するステップと、を含む、付記15に記載の方法。
(付記17)
前記列スコアを算出するステップは、各パラメータ行列について、該パラメータ行列の各列のパラメータの絶対値の和を該列の前記列スコアとして算出するステップを含む、付記16に記載の方法。
(付記18)
前記列スコアを算出ステップは、各パラメータ行列について、該パラメータ行列の各列の各パラメータに関連する損失重みに基づいて前記列スコアを算出するステップを含む、付記16に記載の方法。
(付記19)
前記列スコアを算出するステップは、
前記1つ又は複数のパラメータ行列のうち各パラメータ行列の全てのパラメータ及び前記損失重みを正規化ステップと、
各パラメータ行列について、該パラメータ行列の各列の正規化された各パラメータとその損失重みの加重和の和を前記列スコアとして算出するステップと、を含む、付記18に記載の方法。
(付記20)
ニューラルネットワークにおける推論処理を実行するための装置であって、該装置は処理装置を含み、前記処理装置は、
付記15乃至19の何れかに記載の方法を実行することで、現在のパラメータ行列を次元削減後のパラメータ行列に変換し、
次元削減後のパラメータ行列に基づいて、前記現在のパラメータ行列に対応する入力行列を次元削減後の入力行列に変換し、
次元削減後のパラメータ行列と次元削減後の入力行列を乗算して、出力行列を取得する、装置。
Claims (10)
- ニューラルネットワークの処理速度を向上させるための装置であって、該装置は処理装置を含み、前記処理装置は、
所定の処理速度向上目標に基づいて、訓練されたニューラルネットワークにおける1つ又は複数のパラメータ行列のうち各パラメータ行列の次元削減量を決定し、
各パラメータ行列の次元削減量に基づいて各パラメータ行列に対して前処理を行い、
前記ニューラルネットワークの性能が所定要求を満たすことを確保するように、前処理の結果に基づいて前記ニューラルネットワークを訓練し直して、1つ又は複数の次元削減後のパラメータ行列を取得する、装置。 - 前記次元削減量は、各パラメータ行列の列次元の削減量を示し、
前記処理装置は、各パラメータ行列について、
該パラメータ行列の各列のパラメータ値に基づいて各列の列スコアを算出し、
該パラメータ行列の前記列次元の削減量に基づいて、列スコアが所定条件を満たしている列のパラメータをゼロに設定することで、前記前処理を行う、請求項1に記載の装置。 - 前記処理装置は、各パラメータ行列について、該パラメータ行列の各列のパラメータの絶対値の和を該列の前記列スコアとして算出する、請求項2に記載の装置。
- 前記処理装置は、各パラメータ行列について、該パラメータ行列の各列の各パラメータに関連する損失重みに基づいて前記列スコアを算出する、請求項2に記載の装置。
- 前記処理装置は、
前記1つ又は複数のパラメータ行列のうち各パラメータ行列の全てのパラメータ及び前記損失重みを正規化し、
各パラメータ行列について、該パラメータ行列の各列の正規化された各パラメータとその損失重みの加重和の和を前記列スコアとして算出する、請求項4に記載の装置。 - 前記処理装置は、対応する列がゼロに設定された前記1つ又は複数のパラメータ行列に基づいて、前記ニューラルネットワークを訓練し直して、前記1つ又は複数の次元削減後のパラメータ行列を取得する、請求項2に記載の装置。
- 前記処理装置は、
各パラメータ行列のゼロに設定された列に基づいて、各パラメータ行列に対応する入力行列の対応する行における要素をゼロに設定し、
対応する列がゼロに設定された1つ又は複数のパラメータ行列及び対応する行がゼロに設定された1つ又は複数の入力行列に基づいて前記ニューラルネットワークを訓練し直して、前記1つ又は複数の次元削減後のパラメータ行列を取得する、請求項2に記載の装置。 - 前記処理装置は、
もう1つの所定の処理速度向上目標に基づいて、訓練し直された前記1つ又は複数の次元削減後のパラメータ行列のうち各パラメータ行列の次元削減量を決定し、
決定された各パラメータ行列の次元削減量に基づいて前処理を再度行い、
前記ニューラルネットワークの性能が前記所定要求を満たすことを確保するように、再度の前処理後の結果に基づいて前記ニューラルネットワークを訓練し直して、1つ又は複数の次元再度削減後のパラメータ行列を取得し、
最終的な処理速度向上目標を満たしている1つ又は複数の次元削減後のパラメータ行列を取得するまで、該決定、該再度の前処理及び該訓練し直しを繰り返して実行する、請求項1乃至7の何れかに記載の装置。 - ニューラルネットワークの処理速度を向上させるための方法であって、
所定の処理速度向上目標に基づいて、訓練されたニューラルネットワークにおける1つ又は複数のパラメータ行列のうち各パラメータ行列の次元削減量を決定するステップと、
各パラメータ行列の次元削減量に基づいて各パラメータ行列に対して前処理を行うステップと、
前記ニューラルネットワークの性能が所定要求を満たすことを確保するように、前処理の結果に基づいて前記ニューラルネットワークを訓練し直して、1つ又は複数の次元削減後のパラメータ行列を取得するステップと、を含む、方法。 - ニューラルネットワークにおける推論処理を実行するための装置であって、該装置は処理装置を含み、前記処理装置は、
請求項9に記載の方法を実行することで、現在のパラメータ行列を次元削減後のパラメータ行列に変換し、
次元削減後のパラメータ行列に基づいて、前記現在のパラメータ行列に対応する入力行列を次元削減後の入力行列に変換し、
次元削減後のパラメータ行列と次元削減後の入力行列を乗算して、出力行列を取得する、装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611255449.8A CN108268947A (zh) | 2016-12-30 | 2016-12-30 | 用于提高神经网络的处理速度的装置和方法及其应用 |
CN201611255449.8 | 2016-12-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018109947A true JP2018109947A (ja) | 2018-07-12 |
JP6965690B2 JP6965690B2 (ja) | 2021-11-10 |
Family
ID=62711867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017207910A Active JP6965690B2 (ja) | 2016-12-30 | 2017-10-27 | ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11227213B2 (ja) |
JP (1) | JP6965690B2 (ja) |
CN (1) | CN108268947A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3702959A2 (en) | 2019-02-08 | 2020-09-02 | Fujitsu Limited | Information processing apparatus, arithmetic processing device, and method of controlling information processing apparatus |
JP6749530B1 (ja) * | 2020-02-04 | 2020-09-02 | 三菱電機株式会社 | 構造変換装置、構造変換方法及び構造変換プログラム |
WO2020199056A1 (zh) * | 2019-03-30 | 2020-10-08 | 华为技术有限公司 | 一种数据处理方法、服务器和可读介质 |
DE112019006560T5 (de) | 2019-02-15 | 2021-10-21 | Mitsubishi Electric Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm |
JP2022506134A (ja) * | 2018-11-01 | 2022-01-17 | コーニンクレッカ フィリップス エヌ ヴェ | 医用画像内でのインターベンションデバイスの識別 |
WO2022190966A1 (ja) * | 2021-03-08 | 2022-09-15 | オムロン株式会社 | 推論装置、モデル生成装置、推論方法、及び推論プログラム |
US11907679B2 (en) | 2019-09-19 | 2024-02-20 | Kioxia Corporation | Arithmetic operation device using a machine learning model, arithmetic operation method using a machine learning model, and training method of the machine learning model |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
US11586924B2 (en) * | 2018-01-23 | 2023-02-21 | Qualcomm Incorporated | Determining layer ranks for compression of deep networks |
CN110751287B (zh) * | 2018-07-23 | 2024-02-20 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法及系统以及预测方法及系统 |
US11544551B2 (en) * | 2018-09-28 | 2023-01-03 | Wipro Limited | Method and system for improving performance of an artificial neural network |
CN112219210B (zh) * | 2018-09-30 | 2024-03-29 | 华为技术有限公司 | 信号处理装置和信号处理方法 |
CN111652664A (zh) * | 2019-03-04 | 2020-09-11 | 富士通株式会社 | 训练混合元学习网络的装置和方法 |
JP7322620B2 (ja) * | 2019-09-13 | 2023-08-08 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN111047017B (zh) * | 2019-12-18 | 2023-06-23 | 北京安兔兔科技有限公司 | 一种神经网络算法的评估方法、装置及电子设备 |
CN111738414B (zh) * | 2020-06-11 | 2023-04-07 | 北京百度网讯科技有限公司 | 推荐模型的生成、内容推荐方法、装置、设备和介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101209A (ja) * | 1991-10-04 | 1993-04-23 | Advantest Corp | 階層型ニユーラルネツトワークの学習方法 |
JPH07319508A (ja) * | 1989-03-13 | 1995-12-08 | Hitachi Ltd | プロセス運転支援方法およびシステム |
JPH0991264A (ja) * | 1995-09-20 | 1997-04-04 | Hitachi Medical Corp | ニューラルネットワーク構造最適化装置ならびに方法 |
JP2001344590A (ja) * | 2000-05-31 | 2001-12-14 | Fuji Electric Co Ltd | ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法 |
JP2015095215A (ja) * | 2013-11-14 | 2015-05-18 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習プログラム、及び学習方法 |
CN105095964A (zh) * | 2015-08-17 | 2015-11-25 | 杭州朗和科技有限公司 | 一种数据处理方法和装置 |
US20160174902A1 (en) * | 2013-10-17 | 2016-06-23 | Siemens Aktiengesellschaft | Method and System for Anatomical Object Detection Using Marginal Space Deep Neural Networks |
JP2018129033A (ja) * | 2016-12-21 | 2018-08-16 | アクシス アーベー | 人工ニューラルネットワークのクラスに基づく枝刈り |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7856370B2 (en) * | 2007-06-15 | 2010-12-21 | Saama Technologies, Inc. | Method and system for displaying predictions on a spatial map |
JP5451302B2 (ja) * | 2009-10-19 | 2014-03-26 | キヤノン株式会社 | 画像処理装置及び方法、プログラム及び記憶媒体 |
US8510234B2 (en) * | 2010-01-05 | 2013-08-13 | American Gnc Corporation | Embedded health monitoring system based upon Optimized Neuro Genetic Fast Estimator (ONGFE) |
US10509996B2 (en) * | 2016-05-17 | 2019-12-17 | Huawei Technologies Co., Ltd. | Reduction of parameters in fully connected layers of neural networks |
US10762426B2 (en) * | 2016-08-12 | 2020-09-01 | Beijing Deephi Intelligent Technology Co., Ltd. | Multi-iteration compression for deep neural networks |
US20180046903A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Deep processing unit (dpu) for implementing an artificial neural network (ann) |
-
2016
- 2016-12-30 CN CN201611255449.8A patent/CN108268947A/zh active Pending
-
2017
- 2017-10-27 JP JP2017207910A patent/JP6965690B2/ja active Active
- 2017-10-31 US US15/799,151 patent/US11227213B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319508A (ja) * | 1989-03-13 | 1995-12-08 | Hitachi Ltd | プロセス運転支援方法およびシステム |
JPH05101209A (ja) * | 1991-10-04 | 1993-04-23 | Advantest Corp | 階層型ニユーラルネツトワークの学習方法 |
JPH0991264A (ja) * | 1995-09-20 | 1997-04-04 | Hitachi Medical Corp | ニューラルネットワーク構造最適化装置ならびに方法 |
JP2001344590A (ja) * | 2000-05-31 | 2001-12-14 | Fuji Electric Co Ltd | ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法 |
US20160174902A1 (en) * | 2013-10-17 | 2016-06-23 | Siemens Aktiengesellschaft | Method and System for Anatomical Object Detection Using Marginal Space Deep Neural Networks |
JP2015095215A (ja) * | 2013-11-14 | 2015-05-18 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習プログラム、及び学習方法 |
CN105095964A (zh) * | 2015-08-17 | 2015-11-25 | 杭州朗和科技有限公司 | 一种数据处理方法和装置 |
JP2018129033A (ja) * | 2016-12-21 | 2018-08-16 | アクシス アーベー | 人工ニューラルネットワークのクラスに基づく枝刈り |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022506134A (ja) * | 2018-11-01 | 2022-01-17 | コーニンクレッカ フィリップス エヌ ヴェ | 医用画像内でのインターベンションデバイスの識別 |
JP7464593B2 (ja) | 2018-11-01 | 2024-04-09 | コーニンクレッカ フィリップス エヌ ヴェ | 医用画像内でのインターベンションデバイスの識別 |
EP3702959A2 (en) | 2019-02-08 | 2020-09-02 | Fujitsu Limited | Information processing apparatus, arithmetic processing device, and method of controlling information processing apparatus |
US11756289B2 (en) | 2019-02-08 | 2023-09-12 | Fujitsu Limited | Information processing apparatus, arithmetic processing device, and method of controlling information processing apparatus |
DE112019006560T5 (de) | 2019-02-15 | 2021-10-21 | Mitsubishi Electric Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm |
WO2020199056A1 (zh) * | 2019-03-30 | 2020-10-08 | 华为技术有限公司 | 一种数据处理方法、服务器和可读介质 |
US11907679B2 (en) | 2019-09-19 | 2024-02-20 | Kioxia Corporation | Arithmetic operation device using a machine learning model, arithmetic operation method using a machine learning model, and training method of the machine learning model |
JP6749530B1 (ja) * | 2020-02-04 | 2020-09-02 | 三菱電機株式会社 | 構造変換装置、構造変換方法及び構造変換プログラム |
WO2021156941A1 (ja) * | 2020-02-04 | 2021-08-12 | 三菱電機株式会社 | 構造変換装置、構造変換方法及び構造変換プログラム |
WO2022190966A1 (ja) * | 2021-03-08 | 2022-09-15 | オムロン株式会社 | 推論装置、モデル生成装置、推論方法、及び推論プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN108268947A (zh) | 2018-07-10 |
US20180189650A1 (en) | 2018-07-05 |
US11227213B2 (en) | 2022-01-18 |
JP6965690B2 (ja) | 2021-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018109947A (ja) | ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 | |
US11604956B2 (en) | Sequence-to-sequence prediction using a neural network model | |
US10803591B2 (en) | 3D segmentation with exponential logarithmic loss for highly unbalanced object sizes | |
US10460230B2 (en) | Reducing computations in a neural network | |
US20160358070A1 (en) | Automatic tuning of artificial neural networks | |
KR20210029785A (ko) | 활성화 희소화를 포함하는 신경 네트워크 가속 및 임베딩 압축 시스템 및 방법 | |
CN110852438A (zh) | 模型生成方法和装置 | |
US11450096B2 (en) | Systems and methods for progressive learning for machine-learned models to optimize training speed | |
JP6521440B2 (ja) | ニューラルネットワーク及びそのためのコンピュータプログラム | |
US20190244097A1 (en) | Information processing apparatus and information processing method | |
KR102655950B1 (ko) | 뉴럴 네트워크의 고속 처리 방법 및 그 방법을 이용한 장치 | |
CN111695671A (zh) | 训练神经网络的方法及装置、电子设备 | |
CN110796253A (zh) | 生成对抗网络的训练方法及设备 | |
CN115129386A (zh) | 用于神经网络部署和执行的有效优化 | |
CN115080138A (zh) | 用于神经网络部署和执行的有效存储器使用优化 | |
Huai et al. | Latency-constrained DNN architecture learning for edge systems using zerorized batch normalization | |
CN113869517A (zh) | 一种基于深度学习模型的推理方法 | |
US20230088669A1 (en) | System and method for evaluating weight initialization for neural network models | |
CN113031952B (zh) | 深度学习模型的执行代码的确定方法、装置及存储介质 | |
US11410036B2 (en) | Arithmetic processing apparatus, control method, and non-transitory computer-readable recording medium having stored therein control program | |
CN114444667A (zh) | 训练神经网络的方法及装置、电子设备 | |
CN111079896A (zh) | 一种超参数自适应调整方法与装置 | |
WO2024212160A1 (en) | Method and apparatus for diffusion model | |
CN114580442B (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
US20240355101A1 (en) | Systems and Methods for Progressive Learning for Machine-Learned Models to Optimize Training Speed |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6965690 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |