JP2019164793A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2019164793A5 JP2019164793A5 JP2019051636A JP2019051636A JP2019164793A5 JP 2019164793 A5 JP2019164793 A5 JP 2019164793A5 JP 2019051636 A JP2019051636 A JP 2019051636A JP 2019051636 A JP2019051636 A JP 2019051636A JP 2019164793 A5 JP2019164793 A5 JP 2019164793A5
- Authority
- JP
- Japan
- Prior art keywords
- weights
- layer
- dnn
- bit precision
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000006870 function Effects 0.000 claims description 40
- 238000010801 machine learning Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 21
- 210000002569 neuron Anatomy 0.000 claims description 8
- 238000000034 method Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000004821 distillation Methods 0.000 claims 3
- 238000013500 data storage Methods 0.000 claims 1
- 238000013507 mapping Methods 0.000 claims 1
- 238000013139 quantization Methods 0.000 description 4
Description
したがって、本例において、低精度重み116のセットの各重みについて、機械学習システム104を、低精度重み116の更新の一部として、機械学習システム104が低精度重み116のセットの重みを2の指数値の累乗を乗算した符号値(sign value)に等しくするように決定できるように構成してもよく、この場合、符号値は、高精度重み114のセットの対応する重みの符号を表し、指数値は、高精度重み114のセットの対応する重みの2を底とする対数に基づく。
重みが2の累乗に制限されるとともに機械学習システム104が式(21)に示すような損失関数を計算する例のような一部の例において、各層lに対して、機械学習システム104は、次の式に従って層lのビット深度(すなわち、b(l))を更新してもよい。
(すなわち、低精度重み116)のセットは、複数の層の各々に対する重みの精度が最適化されたセットを有する。式(20)のような一部の例において、低精度重み116のセットの各重みは整数である。一部の例において、低精度重み116のセット各重みは2の累乗である。ビット精度値(b)(すなわち、ビット精度値118(図1))のセットは、複数の層の各々に対するビット精度値を有する。複数の層の各々に対して、重み
は、ビット精度値118のセットに対する損失関数の偏微分であり、sign(・)は、関数の引数の絶対値が予め決定されたしきい値未満でない場合に関数の引数の符号を返すとともに関数の引数の絶対値が予め決定されたしきい値未満である場合に0を返す関数である。
低精度重み116のセットが2の整数乗に制限される一部の例において、機械学習システム104は、低精度重み116のセットの各重みに対して、2の指数値の累乗が乗算された符号値に等しくなる低精度重み116のセット重みを決定してもよい。本例において、符号値は、高精度重み114のセットの対応する重みの符号を表す。本例において、指数値は、高精度重み114のセットの対応する重みの2を底にする対数に基づく。例えば、機械学習システム104は、式(19)に示すように低精度重み116の更新されたセットを決定してもよい。
本開示の一部の例において、図2を参照すると、ニューラルネットワークのトレーニング(202)の結果としてDNN106を2の累乗に等しくしてもよい。低精度重み116が2の累乗に等しくなる例において、推論モード中の計算を、乗算演算の代わりに論理シフト演算を用いることによって簡単化することができる。この結果、DNN106は、推論モード中に更に効率的にかつ潜在的に更に短い待ち時間で動作する。その理由は、シフト演算が乗算より複雑でないからである。一例において、図3を参照すると、BitNetトレーニングは、動作(300)〜(308)の間に重みを2の整数乗に制限することができる。例えば、動作(308)の間に、機械学習システム104は、低精度重み116の値が2の整数乗となるように低精度重み116を更新してもよく、動作(310)の間に、低精度重み116のセットは、ニューラルネットワークのニューロンの入力の重みとして用いられる。
例えば、動作(308)における2の整数乗である値の選択は、選択した重みの量子化を表す。高精度とBitNetトレーニングされたニューラルネットワークの間の値の分布の整合を更に良好に行うために、BitNetトレーニングは、量子化が微分不可能である場合でも、学習した重みパラメータのコード化された分布を最良に維持する量子化関数を選択することができる。例えば、動作(308)において、機械学習システム104は、量子化関数sign(w)*2(round(log|w|)を用いてもよく、この場合、wは、動作(306)で構成された元の浮動小数点重みである。
は、ビット精度値のセットに対する損失関数の偏微分であり、sign(・)は、関数の引数の絶対値がしきい値未満であるときに0を返し、そうでないときに関数の引数の符号を返す関数である例4に記載のコンピュータシステム。
は、重みの第2のセットに対する損失関数の偏微分である例4に記載のコンピュータシステム。
例13.重みの第1のセットの各重みに対して、機械学習システムは、重みの第1のセットを更新することの一部として、機械学習システムが2の指数値の累乗を乗算した符号の値に等しい重みの第1のセットの重みを決定し、符号の値は、重みの第2のセットの対応する重みの符号を表し、指数値は、重みの第2のセットの対応する重みの対数の底2に基づくように構成された例4に記載のコンピュータシステム。
例14.重みのセットの各重みが2の累乗に等しい例1に記載のコンピュータシステム。
は、ビット精度値のセットに対する損失関数の偏微分であり、sign(・)は、関数の引数の絶対値がしきい値未満であるときに0を返し、そうでないときに関数の引数の符号を返す関数である例21に記載の方法。
は、重みの第2のセットに対する損失関数の偏微分であることを備える例21に記載の方法。
例30.重みの第1のセットを更新することは、重みの第1のセットの各重みに対して、2の指数値の累乗を乗算した符号の値に等しい重みの第1のセットの重みを決定し、符号の値は、重みの第2のセットの対応する重みの符号を表し、指数値は、重みの第2のセットの対応する重みの対数の底2に基づくことを備える例21に記載の方法。
例31.重みのセットの各重みが2の累乗に等しい例18に記載の方法。
Claims (14)
- 計算リソースの要求を減少させるためにディープニューラルネットワーク(DNN)をトレーニングするコンピュータシステムであって、
前記DNNの重みの第1のセット、前記DNNの重みの第2のセット及びビット精度値のセットを記憶するメモリであって、前記DNNは、複数の層を有し、前記複数の層の各々に対して、前記重みの第1のセットは、前記層の第1の重みを有し、前記重みの第2のセットは、前記層の第2の重みを有し、前記ビット精度値のセットは、前記層のビット精度値を有し、前記層の第1の重みは、前記層のビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第2の重みは、予め規定された最高ビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第1の重み及び前記層の第2の重みは、前記層のニューロンに対する入力に関連する、メモリと、
前記DNNをトレーニングするように構成された機械学習システムを実行する処理回路であって、前記DNNをトレーニングすることは、損失関数の勾配に基づいて、前記重みの第1のセット、前記重みの第2のセット及び前記ビット精度値のセットを更新することを備える、処理回路と、
を備え、
前記機械学習システムは、更新した前記重みの第2のセット及び更新した前記ビット精度値に基づいて前記重みの第1のセットを更新し、
前記損失関数は、第1の演算対象、第2の演算対象及び第3の演算対象の和として決定され、
前記第1の演算対象は、中間損失関数であり、
前記第2の演算対象は、第1のハイパーパラメータの値と、前記機械学習システムが前記重みの第1のセットを用いるとともに前記重みの第2のセットを用いて第1の入力データセットで前記DNNを実行するときに前記DNNによって生成された出力の使用の間の差を表す蒸留損失との積に等しく、
前記第3の演算対象は、第2のハイパーパラメータの値と、前記複数の層の各層に対応する項の和との積に等しく、前記複数の層の各層に対して、各層に対応する項は、2の各層のビット精度値の累乗に等しい、コンピュータシステム。 - 前記DNNの層の二つ以上は、互いに異なるビット精度値を有する請求項1に記載のコンピュータシステム。
- 前記重みの第2のセットは、前記複数の層の各層に対する一定の精度の重みのセットを有し、
前記機械学習システムは、前記DNNをトレーニングすることの一部として、前記機械学習システムが前記DNNをトレーニングするための複数の繰り返しを実行するように構成され、前記機械学習システムは、前記複数の繰り返しを実行することの一部として、前記機械学習システムが前記複数の繰り返しの各繰り返しに対して、
第1の入力データセットに基づいて第1の出力データセットを計算するために前記第2のセットの重みを前記DNNのニューロンの入力の重みとして用い、
前記損失関数を計算し、
更新した前記重みの第2のセットを決定するために、前記損失関数に基づいて前記重みの第2のセットを更新し、
更新した前記ビット精度値のセットを決定するために、前記損失関数に基づいて前記ビット精度値のセットを更新し、
前記重みの第2のセットを更新した後及び前記ビット精度値のセットを更新した後、更新した第2のセットの重み及び更新したビット精度値のセットに基づいて前記重みの第1のセットを更新するように構成され、
前記機械学習システムは、第2の入力データセットに基づいて第2の出力データセットを計算するために、前記第1のセットの重みを前記DNNのニューロンの入力の重みとして用いるように更に構成された請求項1に記載のコンピュータシステム。 - 前記第1の入力データセットは、トレーニングデータラベル対のバッチを備え、
前記機械学習システムは、前記第1の演算対象を決定することの一部として前記機械学習システムが
前記トレーニングデータラベル対のバッチのデータラベル対は、独立の一様分布したデータラベル対であり、
前記ビット精度値のセットを更新することの一部として、前記機械学習システムは、
前記重みの第2のセットを更新することの一部として、前記機械学習システムは、
- 前記重みの第1のセットの各重みに対して、前記機械学習システムは、前記重みの第1のセットを更新することの一部として、前記機械学習システムが2の指数値の累乗を乗算した符号の値に等しい前記重みの第1のセットの重みを決定し、前記符号の値は、前記重みの第2のセットの対応する重みの符号を表し、前記指数値は、前記重みの第2のセットの対応する重みの対数の底2に基づくように構成された請求項3に記載のコンピュータシステム。
- 前記重みのセットの各重みが2の累乗に等しい請求項1に記載のコンピュータシステム。
- 前記重みの第1のセットの各重みは、指数値及び符号値を用いることによって前記メモリにおいて表される請求項7に記載のコンピュータシステム。
- 前記機械学習システムは、システムアーキテクチャを記述するシステムアーキテクチャパラメータに基づいて前記DNNをトレーニングするように構成された請求項1に記載のコンピュータシステム。
- 前記機械学習システムは、
システムアーキテクチャのプロセッサを記述するデータを有するシステムアーキテクチャパラメータを取得し、
前記システムアーキテクチャパラメータに基づいて、前記DNNを有するニューラルネットワークソフトウェアアーキテクチャ及び前記システムアーキテクチャの前記プロセッサに対する前記ニューラルネットワークソフトウェアアーキテクチャのDNNのマッピングを決定するように構成され、
前記ニューラルネットワークソフトウェアアーキテクチャの前記DNNに対してマッピングされる前記システムアーキテクチャの前記プロセッサは、前記ニューラルネットワークソフトウェアアーキテクチャの前記DNNを実行するように構成された請求項1に記載のコンピュータシステム。 - 計算リソースの要求を減少させるためにディープニューラルネットワーク(DNN)をトレーニングする方法であって、
前記DNNの重みの第1のセット、前記DNNの重みの第2のセット及びビット精度値のセットを記憶することであって、前記DNNは、複数の層を有し、前記複数の層の各々に対して、
前記重みの第1のセットは、前記層の第1の重みを有し、前記重みの第2のセットは、前記層の第2の重みを有し、前記ビット精度値のセットは、前記層のビット精度値を有し、前記層の第1の重みは、前記層のビット精度値に等しいビット精度を有する値を用いてメモリにおいて表され、前記層の第2の重みは、予め規定された最高ビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第1の重み及び前記層の第2の重みは、前記層のニューロンに対する入力に関連する、ことと、
前記DNNをトレーニングするように構成された機械学習システムを実行することであって、前記DNNをトレーニングすることは、損失関数の勾配に基づいて、前記重みの第1のセット、前記重みの第2のセット及び前記ビット精度値のセットを更新することを備えることと、
を備え、
前記機械学習システムは、更新した前記重みの第2のセット及び更新した前記ビット精度値に基づいて前記重みの第1のセットを更新し、
前記損失関数は、第1の演算対象、第2の演算対象及び第3の演算対象の和として決定され、
前記第1の演算対象は、中間損失関数であり、
前記第2の演算対象は、第1のハイパーパラメータの値と、前記機械学習システムが前記重みの第1のセットを用いるとともに前記重みの第2のセットを用いて第1の入力データセットで前記DNNを実行するときに前記DNNによって生成された出力の使用の間の差を表す蒸留損失との積に等しく、
前記第3の演算対象は、第2のハイパーパラメータの値と、前記複数の層の各層に対応する項の和との積に等しく、前記複数の層の各層に対して、各層に対応する項は、2の各層のビット精度値の累乗に等しい、方法。 - 前記DNNの層の二つ以上は、異なるビット精度値を有する請求項11に記載の方法。
- 前記重みの第2のセットは、前記複数の層の各層に対する一定の精度の重みのセットを有し、
前記DNNをトレーニングすることは、前記DNNをトレーニングするための複数の繰り返しを実行することを更に備え、前記複数の繰り返しを実行することは、前記複数の繰り返しの各繰り返しに対して、
第1の入力データセットに基づいて第1の出力データセットを計算するために前記第2のセットの重みを前記DNNのニューロンの入力の重みとして用いることと、
損失関数を計算することと、
更新した前記重みの第2のセットを決定するために、前記損失関数に基づいて前記重みの第2のセットを更新することと、
更新した前記ビット精度値のセットを決定するために、前記損失関数に基づいて前記ビット精度値のセットを更新することと、
前記重みの第2のセットを更新した後及び前記ビット精度値のセットを更新した後、更新した第2のセットの重み及び更新したビット精度値のセットに基づいて前記重みの第1のセットを更新することと、を備え、
第2の入力データセットに基づいて第2の出力データセットを計算するために前記第1のセットの重みを前記DNNのニューロンの入力の重みとして用いることを更に備える請求項11に記載の方法。 - 実行のときに、
ディープニューラルネットワーク(DNN)の重みの第1のセット、前記DNNの重みの第2のセット及びビット精度値のセットをメモリに記憶することであって、前記DNNは、複数の層を有し、前記複数の層の各々に対して、前記重みの第1のセットは、前記層の第1の重みを有し、前記重みの第2のセットは、前記層の第2の重みを有し、前記ビット精度値のセットは、前記層のビット精度値を有し、前記層の第1の重みは、前記層のビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第2の重みは、予め規定された最高ビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第1の重み及び前記層の第2の重みは、前記層のニューロンに対する入力に関連することと、
前記DNNをトレーニングするように構成された機械学習システムを実行することであって、前記DNNをトレーニングすることは、損失関数の勾配に基づいて、前記重みの第1のセット、前記重みの第2のセット及び前記ビット精度値のセットを更新することを備えることと、
を一つ以上のプロセッサによって実行させる命令を記憶し、
前記機械学習システムは、更新した前記重みの第2のセット及び更新した前記ビット精度値に基づいて前記重みの第1のセットを更新し、
前記損失関数は、第1の演算対象、第2の演算対象及び第3の演算対象の和として決定され、
前記第1の演算対象は、中間損失関数であり、
前記第2の演算対象は、第1のハイパーパラメータの値と、前記機械学習システムが前記重みの第1のセットを用いるとともに前記重みの第2のセットを用いて第1の入力データセットで前記DNNを実行するときに前記DNNによって生成された出力の使用の間の差を表す蒸留損失との積に等しく、
前記第3の演算対象は、第2のハイパーパラメータの値と、前記複数の層の各層に対応する項の和との積に等しく、前記複数の層の各層に対して、各層に対応する項は、2の各層のビット精度値の累乗に等しい、コンピュータ可読データ記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022001150A JP2022066192A (ja) | 2018-03-19 | 2022-01-06 | ディープニューラルネットワークの動的適応 |
JP2024009579A JP2024050691A (ja) | 2018-03-19 | 2024-01-25 | ディープニューラルネットワークの動的適応 |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862644715P | 2018-03-19 | 2018-03-19 | |
US62/644,715 | 2018-03-19 | ||
US201862645358P | 2018-03-20 | 2018-03-20 | |
US62/645,358 | 2018-03-20 | ||
US16/133,446 | 2018-09-17 | ||
US16/133,446 US11429862B2 (en) | 2018-03-20 | 2018-09-17 | Dynamic adaptation of deep neural networks |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022001150A Division JP2022066192A (ja) | 2018-03-19 | 2022-01-06 | ディープニューラルネットワークの動的適応 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019164793A JP2019164793A (ja) | 2019-09-26 |
JP2019164793A5 true JP2019164793A5 (ja) | 2020-11-26 |
Family
ID=65904040
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019051636A Withdrawn JP2019164793A (ja) | 2018-03-19 | 2019-03-19 | ディープニューラルネットワークの動的適応 |
JP2022001150A Withdrawn JP2022066192A (ja) | 2018-03-19 | 2022-01-06 | ディープニューラルネットワークの動的適応 |
JP2024009579A Pending JP2024050691A (ja) | 2018-03-19 | 2024-01-25 | ディープニューラルネットワークの動的適応 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022001150A Withdrawn JP2022066192A (ja) | 2018-03-19 | 2022-01-06 | ディープニューラルネットワークの動的適応 |
JP2024009579A Pending JP2024050691A (ja) | 2018-03-19 | 2024-01-25 | ディープニューラルネットワークの動的適応 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3543917B1 (ja) |
JP (3) | JP2019164793A (ja) |
KR (1) | KR102329590B1 (ja) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
KR102329590B1 (ko) * | 2018-03-19 | 2021-11-19 | 에스알아이 인터내셔널 | 딥 신경망들의 동적 적응 |
US11429862B2 (en) | 2018-03-20 | 2022-08-30 | Sri International | Dynamic adaptation of deep neural networks |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
CN113039556B (zh) | 2018-10-11 | 2022-10-21 | 特斯拉公司 | 用于使用增广数据训练机器模型的系统和方法 |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
CA3114632A1 (en) * | 2018-11-19 | 2020-05-28 | Deeplite Inc. | System and method for automated design space determination for deep neural networks |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US11657118B2 (en) * | 2019-05-23 | 2023-05-23 | Google Llc | Systems and methods for learning effective loss functions efficiently |
CN112668362B (zh) * | 2019-10-15 | 2023-06-16 | 浙江中正智能科技有限公司 | 一种动态优化类代理的人证比对模型训练方法 |
US11775611B2 (en) | 2019-11-01 | 2023-10-03 | Samsung Electronics Co., Ltd. | Piecewise quantization for neural networks |
CN111079523B (zh) * | 2019-11-05 | 2024-05-14 | 北京迈格威科技有限公司 | 物体检测方法、装置、计算机设备和存储介质 |
US20210150313A1 (en) * | 2019-11-15 | 2021-05-20 | Samsung Electronics Co., Ltd. | Electronic device and method for inference binary and ternary neural networks |
CN110942094B (zh) * | 2019-11-26 | 2022-04-01 | 电子科技大学 | 一种基于范数的对抗性样本检测分类方法 |
CN112926174A (zh) * | 2019-12-06 | 2021-06-08 | 富益成科技有限公司 | 电池智能分流的控制方法及系统 |
KR102093080B1 (ko) * | 2019-12-06 | 2020-04-27 | 주식회사 애자일소다 | 레이블 데이터 및 비레이블 데이터를 이용한 생성적 적대 신경망 기반의 분류 시스템 및 방법 |
JP7059458B2 (ja) * | 2019-12-06 | 2022-04-26 | アジャイルソーダ インコーポレイテッド | 生成的敵対神経網ベースの分類システム及び方法 |
US11899765B2 (en) | 2019-12-23 | 2024-02-13 | Dts Inc. | Dual-factor identification system and method with adaptive enrollment |
US11551145B2 (en) | 2020-02-05 | 2023-01-10 | International Business Machines Corporation | Performance based switching of a model training process |
CN111399933B (zh) * | 2020-02-11 | 2022-05-31 | 福建师范大学 | 一种边缘-云混合计算环境下的dnn任务卸载方法及终端 |
US11586932B2 (en) | 2020-03-10 | 2023-02-21 | International Business Machines Corporation | Model training with variable batch sizing and gradient checkpoint segments |
CN111401430B (zh) * | 2020-03-12 | 2022-04-01 | 四川大学 | 一种基于双通道深度神经网络的图像在线分类方法 |
US20230093630A1 (en) * | 2020-03-17 | 2023-03-23 | Interdigital Ce Patent Holdings | System and method for adapting to changing constraints |
KR102488281B1 (ko) * | 2020-03-30 | 2023-01-13 | 주식회사 모빌린트 | 인공신경망의 활성값 및 가중값의 정밀도를 적응적으로 제어하는 방법 및 그 장치 |
CN113688851B (zh) * | 2020-05-18 | 2023-09-15 | 华为云计算技术有限公司 | 数据标注方法和装置和精细粒度识别方法和装置 |
CN111738419B (zh) * | 2020-06-19 | 2024-01-12 | 北京百度网讯科技有限公司 | 神经网络模型的量化方法和装置 |
CN111783957B (zh) * | 2020-07-02 | 2024-05-03 | 厦门美图之家科技有限公司 | 模型量化训练方法、装置、机器可读存储介质及电子设备 |
CN111831354B (zh) * | 2020-07-09 | 2023-05-16 | 北京灵汐科技有限公司 | 数据精度配置方法、装置、芯片、芯片阵列、设备及介质 |
JP6992864B1 (ja) | 2020-09-28 | 2022-01-13 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
US20220121947A1 (en) * | 2020-10-20 | 2022-04-21 | Samsung Electronics Co., Ltd. | Method and system for secure, accurate and fast neural network inference |
CN112311488A (zh) * | 2020-11-05 | 2021-02-02 | 上海应用技术大学 | 基于小波分解的频谱感知方法 |
KR102314864B1 (ko) * | 2021-03-29 | 2021-10-19 | 주식회사 리트빅 | 차량운전 상태정보를 이용한 에지 딥러닝 기반의 차량 안전운전 시스템 |
KR20220147398A (ko) * | 2021-04-27 | 2022-11-03 | 삼성전자주식회사 | 인공 지능 모델에 기반하여 데이터를 처리하는 전자 장치 및 그 동작 방법 |
JP7187065B1 (ja) | 2021-06-25 | 2022-12-12 | 株式会社モルフォ | 計算手法決定システム、計算手法決定方法、及び、計算手法決定プログラム |
KR102590993B1 (ko) * | 2021-09-03 | 2023-10-19 | 한국전자기술연구원 | 적응형 배치 프로세싱 방법 및 시스템 |
CN113872873B (zh) * | 2021-09-29 | 2023-05-02 | 西安交通大学 | 一种适合5g新应用的多场景跨层拥塞控制方法 |
WO2023120205A1 (ja) * | 2021-12-24 | 2023-06-29 | ソニーセミコンダクタソリューションズ株式会社 | 推論装置、推論方法及び推論プログラム |
KR20230124503A (ko) * | 2022-02-18 | 2023-08-25 | 인텔렉추얼디스커버리 주식회사 | 특징맵 압축 방법 및 장치 |
WO2023184359A1 (en) * | 2022-03-31 | 2023-10-05 | Qualcomm Incorporated | System and method for image processing using mixed inference precision |
WO2024063524A1 (ko) * | 2022-09-21 | 2024-03-28 | 엘지전자 주식회사 | 무선 통신 시스템에서 온라인 학습을 수행하기 위한 장치 및 방법 |
CN116381536B (zh) * | 2023-03-07 | 2024-03-19 | 华中科技大学 | 一种基于回归元学习的锂电池健康状态预测的方法及系统 |
CN116129249B (zh) * | 2023-04-04 | 2023-07-07 | 上海燧原科技有限公司 | 一种图像处理方法、装置、电子设备和存储介质 |
CN116451757B (zh) * | 2023-06-19 | 2023-09-08 | 山东浪潮科学研究院有限公司 | 一种神经网络模型的异构加速方法、装置、设备及介质 |
CN117033733B (zh) * | 2023-10-09 | 2023-12-22 | 北京民谐文化传播有限公司 | 图书馆资源的智能自动分类与标签生成系统及方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0628323A (ja) * | 1992-07-06 | 1994-02-04 | Nippon Telegr & Teleph Corp <Ntt> | プロセス実行制御方法 |
US20150242741A1 (en) * | 2014-02-21 | 2015-08-27 | Qualcomm Incorporated | In situ neural network co-processing |
US11106973B2 (en) * | 2016-03-16 | 2021-08-31 | Hong Kong Applied Science and Technology Research Institute Company Limited | Method and system for bit-depth reduction in artificial neural networks |
GB201607713D0 (en) * | 2016-05-03 | 2016-06-15 | Imagination Tech Ltd | Convolutional neural network |
KR102329590B1 (ko) * | 2018-03-19 | 2021-11-19 | 에스알아이 인터내셔널 | 딥 신경망들의 동적 적응 |
-
2019
- 2019-03-19 KR KR1020190031438A patent/KR102329590B1/ko active IP Right Grant
- 2019-03-19 EP EP19163921.0A patent/EP3543917B1/en active Active
- 2019-03-19 JP JP2019051636A patent/JP2019164793A/ja not_active Withdrawn
-
2022
- 2022-01-06 JP JP2022001150A patent/JP2022066192A/ja not_active Withdrawn
-
2024
- 2024-01-25 JP JP2024009579A patent/JP2024050691A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019164793A5 (ja) | ||
EP3474194B1 (en) | Method and apparatus with neural network parameter quantization | |
KR20200004700A (ko) | 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 | |
CN105719001B (zh) | 使用散列的神经网络中的大规模分类 | |
US10460230B2 (en) | Reducing computations in a neural network | |
US11861474B2 (en) | Dynamic placement of computation sub-graphs | |
KR20190044878A (ko) | 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 | |
EP3602419B1 (en) | Neural network optimizer search | |
US11842178B2 (en) | Compiler-level general matrix multiplication configuration optimization | |
US11120333B2 (en) | Optimization of model generation in deep learning neural networks using smarter gradient descent calibration | |
CN110008952B (zh) | 一种目标识别方法及设备 | |
US10579334B2 (en) | Block floating point computations using shared exponents | |
Billups et al. | Derivative-free optimization of expensive functions with computational error using weighted regression | |
US20200097822A1 (en) | Dropout for accelerated deep learning in heterogeneous architectures | |
US11551087B2 (en) | Information processor, information processing method, and storage medium | |
JP7294017B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN114830137A (zh) | 用于生成预测模型的方法和系统 | |
US20210216867A1 (en) | Information processing apparatus, neural network computation program, and neural network computation method | |
CN113657595B (zh) | 基于神经网络实时剪枝的神经网络加速器 | |
KR102559605B1 (ko) | 함수 최적화 방법 및 장치 | |
CN115564022A (zh) | 弹性调节算力的预测方法和装置 | |
JP7455773B2 (ja) | 求解装置およびプログラム | |
JP2009265729A (ja) | 推定装置および方法、並びにプログラム | |
US11410036B2 (en) | Arithmetic processing apparatus, control method, and non-transitory computer-readable recording medium having stored therein control program | |
CN110852361A (zh) | 基于改进深度神经网络的图像分类方法、装置与电子设备 |