JP2019164793A5 - - Google Patents

Download PDF

Info

Publication number
JP2019164793A5
JP2019164793A5 JP2019051636A JP2019051636A JP2019164793A5 JP 2019164793 A5 JP2019164793 A5 JP 2019164793A5 JP 2019051636 A JP2019051636 A JP 2019051636A JP 2019051636 A JP2019051636 A JP 2019051636A JP 2019164793 A5 JP2019164793 A5 JP 2019164793A5
Authority
JP
Japan
Prior art keywords
weights
layer
dnn
bit precision
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2019051636A
Other languages
English (en)
Other versions
JP2019164793A (ja
Filing date
Publication date
Priority claimed from US16/133,446 external-priority patent/US11429862B2/en
Application filed filed Critical
Publication of JP2019164793A publication Critical patent/JP2019164793A/ja
Publication of JP2019164793A5 publication Critical patent/JP2019164793A5/ja
Priority to JP2022001150A priority Critical patent/JP2022066192A/ja
Priority to JP2024009579A priority patent/JP2024050691A/ja
Withdrawn legal-status Critical Current

Links

Description

したがって、本例において、低精度重み116のセットの各重みについて、機械学習システム104を、低精度重み116の更新の一部として、機械学習システム104が低精度重み116のセットの重みを2の指数値の累乗を乗算した符号値(sign value)に等しくするように決定できるように構成してもよく、この場合、符号値は、高精度重み114のセットの対応する重みの符号を表し、指数値は、高精度重み114のセットの対応する重みの2を底とする対数に基づく。
重みが2の累乗に制限されるとともに機械学習システム104が式(21)に示すような損失関数を計算する例のような一部の例において、各層lに対して、機械学習システム104は、次の式に従って層lのビット深度(すなわち、b(l))を更新してもよい。
(すなわち、低精度重み116)のセットは、複数の層の各々に対する重みの精度が最適化されたセットを有する。式(20)のような一部の例において、低精度重み116のセットの各重みは整数である。一部の例において、低精度重み116のセット各重みは2の累乗である。ビット精度値(b)(すなわち、ビット精度値118(図1))のセットは、複数の層の各々に対するビット精度値を有する。複数の層の各々に対して、重み
は、ビット精度値118のセットに対する損失関数の偏微分であり、sign(・)は、関数の引数の絶対値が予め決定されたしきい値未満でない場合に関数の引数の符号を返すとともに関数の引数の絶対値が予め決定されたしきい値未満である場合に0を返す関数である。
低精度重み116のセットが2の整数乗に制限される一部の例において、機械学習システム104は、低精度重み116のセットの各重みに対して、2の指数値の累乗が乗算された符号値に等しくなる低精度重み116のセット重みを決定してもよい。本例において、符号値は、高精度重み114のセットの対応する重みの符号を表す。本例において、指数値は、高精度重み114のセットの対応する重みの2を底にする対数に基づく。例えば、機械学習システム104は、式(19)に示すように低精度重み116の更新されたセットを決定してもよい。
本開示の一部の例において、図2を参照すると、ニューラルネットワークのトレーニング(202)の結果としてDNN106を2の累乗に等しくしてもよい。低精度重み116が2の累乗に等しくなる例において、推論モード中の計算を、乗算演算の代わりに論理シフト演算を用いることによって簡単化することができる。この結果、DNN106は、推論モード中に更に効率的にかつ潜在的に更に短い待ち時間で動作する。その理由は、シフト演算が乗算より複雑でないからである。一例において、図3を参照すると、BitNetトレーニングは、動作(300)〜(308)の間に重みを2の整数乗に制限することができる。例えば、動作(308)の間に、機械学習システム104は、低精度重み116の値が2の整数乗となるように低精度重み116を更新してもよく、動作(310)の間に、低精度重み116のセットは、ニューラルネットワークのニューロンの入力の重みとして用いられる。
例えば、動作(308)における2の整数乗である値の選択は、選択した重みの量子化を表す。高精度とBitNetトレーニングされたニューラルネットワークの間の値の分布の整合を更に良好に行うために、BitNetトレーニングは、量子化が微分不可能である場合でも、学習した重みパラメータのコード化された分布を最良に維持する量子化関数を選択することができる。例えば、動作(308)において、機械学習システム104は、量子化関数sign(w)*2(round(log|w|)を用いてもよく、この場合、wは、動作(306)で構成された元の浮動小数点重みである。
は、ビット精度値のセットに対する損失関数の偏微分であり、sign(・)は、関数の引数の絶対値がしきい値未満であるときに0を返し、そうでないときに関数の引数の符号を返す関数である例4に記載のコンピュータシステム。
は、重みの第2のセットに対する損失関数の偏微分である例4に記載のコンピュータシステム。
例13.重みの第1のセットの各重みに対して、機械学習システムは、重みの第1のセットを更新することの一部として、機械学習システムが2の指数値の累乗を乗算した符号の値に等しい重みの第1のセットの重みを決定し、符号の値は、重みの第2のセットの対応する重みの符号を表し、指数値は、重みの第2のセットの対応する重みの対数の底2に基づくように構成された例4に記載のコンピュータシステム。
例14.重みのセットの各重みが2の累乗に等しい例1に記載のコンピュータシステム。
は、ビット精度値のセットに対する損失関数の偏微分であり、sign(・)は、関数の引数の絶対値がしきい値未満であるときに0を返し、そうでないときに関数の引数の符号を返す関数である例21に記載の方法。
は、重みの第2のセットに対する損失関数の偏微分であることを備える例21に記載の方法。
例30.重みの第1のセットを更新することは、重みの第1のセットの各重みに対して、2の指数値の累乗を乗算した符号の値に等しい重みの第1のセットの重みを決定し、符号の値は、重みの第2のセットの対応する重みの符号を表し、指数値は、重みの第2のセットの対応する重みの対数の底2に基づくことを備える例21に記載の方法。
例31.重みのセットの各重みが2の累乗に等しい例18に記載の方法。

Claims (14)

  1. 計算リソースの要求を減少させるためにディープニューラルネットワーク(DNN)をトレーニングするコンピュータシステムであって、
    前記DNNの重みの第1のセット、前記DNNの重みの第2のセット及びビット精度値のセットを記憶するメモリであって、前記DNNは、複数の層を有し、前記複数の層の各々に対して、前記重みの第1のセットは、前記層の第1の重みを有し、前記重みの第2のセットは、前記層の第2の重みを有し、前記ビット精度値のセットは、前記層のビット精度値を有し、前記層の第1の重みは、前記層のビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第2の重みは、予め規定された最高ビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第1の重み及び前記層の第2の重みは、前記層のニューロンに対する入力に関連するメモリと、
    前記DNNをトレーニングするように構成された機械学習システムを実行する処理回路であって、前記DNNをトレーニングすることは、損失関数の勾配に基づいて、前記重みの第1のセット、前記重みの第2のセット及び前記ビット精度値のセットを更新することを備える処理回路と、
    を備え
    前記機械学習システムは、更新した前記重みの第2のセット及び更新した前記ビット精度値に基づいて前記重みの第1のセットを更新し、
    前記損失関数は、第1の演算対象、第2の演算対象及び第3の演算対象の和として決定され、
    前記第1の演算対象は、中間損失関数であり、
    前記第2の演算対象は、第1のハイパーパラメータの値と、前記機械学習システムが前記重みの第1のセットを用いるとともに前記重みの第2のセットを用いて第1の入力データセットで前記DNNを実行するときに前記DNNによって生成された出力の使用の間の差を表す蒸留損失との積に等しく、
    前記第3の演算対象は、第2のハイパーパラメータの値と、前記複数の層の各層に対応する項の和との積に等しく、前記複数の層の各層に対して、各層に対応する項は、2の各層のビット精度値の累乗に等しい、コンピュータシステム。
  2. 前記DNNの層の二つ以上は、互いに異なるビット精度値を有する請求項1に記載のコンピュータシステム。
  3. 前記重みの第2のセットは、前記複数の層の各層に対する一定の精度の重みのセットを有し
    前記機械学習システムは、前記DNNをトレーニングすることの一部として、前記機械学習システムが前記DNNをトレーニングするための複数の繰り返しを実行するように構成され、前記機械学習システムは、前記複数の繰り返しを実行することの一部として、前記機械学習システムが前記複数の繰り返しの各繰り返しに対して、
    第1の入力データセットに基づいて第1の出力データセットを計算するために前記第2のセットの重みを前記DNNのニューロンの入力の重みとして用い、
    前記損失関数を計算し、
    更新した前記重みの第2のセットを決定するために、前記損失関数に基づいて前記重みの第2のセットを更新し、
    更新した前記ビット精度値のセットを決定するために、前記損失関数に基づいて前記ビット精度値のセットを更新し、
    前記重みの第2のセットを更新した後及び前記ビット精度値のセットを更新した後、更新した第2のセットの重み及び更新したビット精度値のセットに基づいて前記重みの第1のセットを更新するように構成され、
    前記機械学習システムは、第2の入力データセットに基づいて第2の出力データセットを計算するために、前記第1のセットの重みを前記DNNのニューロンの入力の重みとして用いるように更に構成された請求項1に記載のコンピュータシステム。
  4. 前記第1の入力データセットは、トレーニングデータラベル対のバッチを備え、
    前記機械学習システムは、前記第1の演算対象を決定することの一部として前記機械学習システムが
    Figure 2019164793
    に等しくなるような前記第1の演算対象を決定し、Bは、前記トレーニングデータラベル対のバッチのデータラベル対の総数であり、前記トレーニングデータラベル対のバッチの各ラベルは、B個のラベルを有するラベルのセットの要素であり、iは、添え字であり、log(・)は、対数関数であり、Nは、前記複数の層の総数であり、yは、前記ラベルのセットのi番目のラベルであり、
    Figure 2019164793
    は、前記DNNが前記トレーニングデータラベル対のバッチのi番目のデータラベル対のデータの入力として与えられるときに前記複数の層のN番目の層の出力であるように構成され、
    前記トレーニングデータラベル対のバッチのデータラベル対は、独立の一様分布したデータラベル対であり、
    前記ビット精度値のセットを更新することの一部として、前記機械学習システムは、
    Figure 2019164793
    に等しくなるように前記更新したビット精度値のセットを決定し、bは、前記ビット精度値のセットであり、
    Figure 2019164793
    は、前記重みの第1のセットであり、
    Figure 2019164793
    は、前記ビット精度値のセットに対する前記損失関数の偏微分であり、sign(・)は、関数の引数の絶対値がしきい値未満のときに0を返し、そうでないときに関数の引数の符号を返す関数であり、
    前記重みの第2のセットを更新することの一部として、前記機械学習システムは、
    Figure 2019164793
    に等しくなるように前記更新した重みの第2のセットを決定し、Wは、前記重みの第2のセットであり、μは、学習率であり、
    Figure 2019164793
    は、前記重みの第1のセットであり、
    Figure 2019164793
    は、前記重みの第2のセットに対する前記損失関数の偏微分である請求項に記載のコンピュータシステム。
  5. 前記機械学習システムは、前記重みの第1のセットを更新することの一部として、前記機械学習システムが前記複数の層の各層に対して各層の更新した最適精度の重みが
    Figure 2019164793
    に等しくなるように更新した重みの第1のセットを決定し、αは、層の前記一定の精度の重みのセットの最小重みであり、Wは、層の前記一定の精度の重みのセットであり、δは、層の前記一定の精度の重みのセットの最小重みから層の前記一定の精度の重みのセットの最大重みまでの離散化された範囲の一定のステップの総数であり、round(・)は、丸め関数であるように構成された請求項に記載のコンピュータシステム。
  6. 前記重みの第1のセットの各重みに対して、前記機械学習システムは、前記重みの第1のセットを更新することの一部として、前記機械学習システムが2の指数値の累乗を乗算した符号の値に等しい前記重みの第1のセットの重みを決定し、前記符号の値は、前記重みの第2のセットの対応する重みの符号を表し、前記指数値は、前記重みの第2のセットの対応する重みの対数の底2に基づくように構成された請求項に記載のコンピュータシステム。
  7. 前記重みのセットの各重みが2の累乗に等しい請求項1に記載のコンピュータシステム。
  8. 前記重みの第1のセットの各重みは、指数値及び符号値を用いることによって前記メモリにおいて表される請求項に記載のコンピュータシステム。
  9. 前記機械学習システムは、システムアーキテクチャを記述するシステムアーキテクチャパラメータに基づいて前記DNNをトレーニングするように構成された請求項1に記載のコンピュータシステム。
  10. 前記機械学習システムは、
    システムアーキテクチャのプロセッサを記述するデータを有するシステムアーキテクチャパラメータを取得し、
    前記システムアーキテクチャパラメータに基づいて、前記DNNを有するニューラルネットワークソフトウェアアーキテクチャ及び前記システムアーキテクチャの前記プロセッサに対する前記ニューラルネットワークソフトウェアアーキテクチャのDNNのマッピングを決定するように構成され、
    前記ニューラルネットワークソフトウェアアーキテクチャの前記DNNに対してマッピングされる前記システムアーキテクチャの前記プロセッサは、前記ニューラルネットワークソフトウェアアーキテクチャの前記DNNを実行するように構成された請求項1に記載のコンピュータシステム。
  11. 計算リソースの要求を減少させるためにディープニューラルネットワーク(DNN)をトレーニングする方法であって、
    前記DNNの重みの第1のセット、前記DNNの重みの第2のセット及びビット精度値のセットを記憶することであって、前記DNNは、複数の層を有し、前記複数の層の各々に対して、
    前記重みの第1のセットは、前記層の第1の重みを有し、前記重みの第2のセットは、前記層の第2の重みを有し、前記ビット精度値のセットは、前記層のビット精度値を有し、前記層の第1の重みは、前記層のビット精度値に等しいビット精度を有する値を用いてメモリにおいて表され、前記層の第2の重みは、予め規定された最高ビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第1の重み及び前記層の第2の重みは、前記層のニューロンに対する入力に関連することと、
    前記DNNをトレーニングするように構成された機械学習システムを実行することであって、前記DNNをトレーニングすることは、損失関数の勾配に基づいて、前記重みの第1のセット、前記重みの第2のセット及び前記ビット精度値のセットを更新することを備えることと、
    を備え、
    前記機械学習システムは、更新した前記重みの第2のセット及び更新した前記ビット精度値に基づいて前記重みの第1のセットを更新し、
    前記損失関数は、第1の演算対象、第2の演算対象及び第3の演算対象の和として決定され、
    前記第1の演算対象は、中間損失関数であり、
    前記第2の演算対象は、第1のハイパーパラメータの値と、前記機械学習システムが前記重みの第1のセットを用いるとともに前記重みの第2のセットを用いて第1の入力データセットで前記DNNを実行するときに前記DNNによって生成された出力の使用の間の差を表す蒸留損失との積に等しく、
    前記第3の演算対象は、第2のハイパーパラメータの値と、前記複数の層の各層に対応する項の和との積に等しく、前記複数の層の各層に対して、各層に対応する項は、2の各層のビット精度値の累乗に等しい、方法。
  12. 前記DNNの層の二つ以上は、異なるビット精度値を有する請求項11に記載の方法。
  13. 前記重みの第2のセットは、前記複数の層の各層に対する一定の精度の重みのセットを有し
    前記DNNをトレーニングすることは、前記DNNをトレーニングするための複数の繰り返しを実行することを更に備え、前記複数の繰り返しを実行することは、前記複数の繰り返しの各繰り返しに対して、
    第1の入力データセットに基づいて第1の出力データセットを計算するために前記第2のセットの重みを前記DNNのニューロンの入力の重みとして用いることと、
    損失関数を計算することと、
    更新した前記重みの第2のセットを決定するために、前記損失関数に基づいて前記重みの第2のセットを更新することと、
    更新した前記ビット精度値のセットを決定するために、前記損失関数に基づいて前記ビット精度値のセットを更新することと、
    前記重みの第2のセットを更新した後及び前記ビット精度値のセットを更新した後、更新した第2のセットの重み及び更新したビット精度値のセットに基づいて前記重みの第1のセットを更新することと、を備え、
    第2の入力データセットに基づいて第2の出力データセットを計算するために前記第1のセットの重みを前記DNNのニューロンの入力の重みとして用いることを更に備える請求項11に記載の方法。
  14. 実行のときに、
    ディープニューラルネットワーク(DNN)の重みの第1のセット、前記DNNの重みの第2のセット及びビット精度値のセットメモリに記憶することであって、前記DNNは、複数の層を有し、前記複数の層の各々に対して、前記重みの第1のセットは、前記層の第1の重みを有し、前記重みの第2のセットは、前記層の第2の重みを有し、前記ビット精度値のセットは、前記層のビット精度値を有し、前記層の第1の重みは、前記層のビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第2の重みは、予め規定された最高ビット精度値に等しいビット精度を有する値を用いて前記メモリにおいて表され、前記層の第1の重み及び前記層の第2の重みは、前記層のニューロンに対する入力に関連することと、
    前記DNNをトレーニングするように構成された機械学習システムを実行することであって、前記DNNをトレーニングすることは、損失関数の勾配に基づいて、前記重みの第1のセット、前記重みの第2のセット及び前記ビット精度値のセットを更新することを備えることと、
    を一つ以上のプロセッサによって実行させる命令を記憶し
    前記機械学習システムは、更新した前記重みの第2のセット及び更新した前記ビット精度値に基づいて前記重みの第1のセットを更新し、
    前記損失関数は、第1の演算対象、第2の演算対象及び第3の演算対象の和として決定され、
    前記第1の演算対象は、中間損失関数であり、
    前記第2の演算対象は、第1のハイパーパラメータの値と、前記機械学習システムが前記重みの第1のセットを用いるとともに前記重みの第2のセットを用いて第1の入力データセットで前記DNNを実行するときに前記DNNによって生成された出力の使用の間の差を表す蒸留損失との積に等しく、
    前記第3の演算対象は、第2のハイパーパラメータの値と、前記複数の層の各層に対応する項の和との積に等しく、前記複数の層の各層に対して、各層に対応する項は、2の各層のビット精度値の累乗に等しい、コンピュータ可読データ記憶媒体。
JP2019051636A 2018-03-19 2019-03-19 ディープニューラルネットワークの動的適応 Withdrawn JP2019164793A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022001150A JP2022066192A (ja) 2018-03-19 2022-01-06 ディープニューラルネットワークの動的適応
JP2024009579A JP2024050691A (ja) 2018-03-19 2024-01-25 ディープニューラルネットワークの動的適応

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201862644715P 2018-03-19 2018-03-19
US62/644,715 2018-03-19
US201862645358P 2018-03-20 2018-03-20
US62/645,358 2018-03-20
US16/133,446 2018-09-17
US16/133,446 US11429862B2 (en) 2018-03-20 2018-09-17 Dynamic adaptation of deep neural networks

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022001150A Division JP2022066192A (ja) 2018-03-19 2022-01-06 ディープニューラルネットワークの動的適応

Publications (2)

Publication Number Publication Date
JP2019164793A JP2019164793A (ja) 2019-09-26
JP2019164793A5 true JP2019164793A5 (ja) 2020-11-26

Family

ID=65904040

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019051636A Withdrawn JP2019164793A (ja) 2018-03-19 2019-03-19 ディープニューラルネットワークの動的適応
JP2022001150A Withdrawn JP2022066192A (ja) 2018-03-19 2022-01-06 ディープニューラルネットワークの動的適応
JP2024009579A Pending JP2024050691A (ja) 2018-03-19 2024-01-25 ディープニューラルネットワークの動的適応

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022001150A Withdrawn JP2022066192A (ja) 2018-03-19 2022-01-06 ディープニューラルネットワークの動的適応
JP2024009579A Pending JP2024050691A (ja) 2018-03-19 2024-01-25 ディープニューラルネットワークの動的適応

Country Status (3)

Country Link
EP (1) EP3543917B1 (ja)
JP (3) JP2019164793A (ja)
KR (1) KR102329590B1 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
KR102329590B1 (ko) * 2018-03-19 2021-11-19 에스알아이 인터내셔널 딥 신경망들의 동적 적응
US11429862B2 (en) 2018-03-20 2022-08-30 Sri International Dynamic adaptation of deep neural networks
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CN113039556B (zh) 2018-10-11 2022-10-21 特斯拉公司 用于使用增广数据训练机器模型的系统和方法
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
CA3114632A1 (en) * 2018-11-19 2020-05-28 Deeplite Inc. System and method for automated design space determination for deep neural networks
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11657118B2 (en) * 2019-05-23 2023-05-23 Google Llc Systems and methods for learning effective loss functions efficiently
CN112668362B (zh) * 2019-10-15 2023-06-16 浙江中正智能科技有限公司 一种动态优化类代理的人证比对模型训练方法
US11775611B2 (en) 2019-11-01 2023-10-03 Samsung Electronics Co., Ltd. Piecewise quantization for neural networks
CN111079523B (zh) * 2019-11-05 2024-05-14 北京迈格威科技有限公司 物体检测方法、装置、计算机设备和存储介质
US20210150313A1 (en) * 2019-11-15 2021-05-20 Samsung Electronics Co., Ltd. Electronic device and method for inference binary and ternary neural networks
CN110942094B (zh) * 2019-11-26 2022-04-01 电子科技大学 一种基于范数的对抗性样本检测分类方法
CN112926174A (zh) * 2019-12-06 2021-06-08 富益成科技有限公司 电池智能分流的控制方法及系统
KR102093080B1 (ko) * 2019-12-06 2020-04-27 주식회사 애자일소다 레이블 데이터 및 비레이블 데이터를 이용한 생성적 적대 신경망 기반의 분류 시스템 및 방법
JP7059458B2 (ja) * 2019-12-06 2022-04-26 アジャイルソーダ インコーポレイテッド 生成的敵対神経網ベースの分類システム及び方法
US11899765B2 (en) 2019-12-23 2024-02-13 Dts Inc. Dual-factor identification system and method with adaptive enrollment
US11551145B2 (en) 2020-02-05 2023-01-10 International Business Machines Corporation Performance based switching of a model training process
CN111399933B (zh) * 2020-02-11 2022-05-31 福建师范大学 一种边缘-云混合计算环境下的dnn任务卸载方法及终端
US11586932B2 (en) 2020-03-10 2023-02-21 International Business Machines Corporation Model training with variable batch sizing and gradient checkpoint segments
CN111401430B (zh) * 2020-03-12 2022-04-01 四川大学 一种基于双通道深度神经网络的图像在线分类方法
US20230093630A1 (en) * 2020-03-17 2023-03-23 Interdigital Ce Patent Holdings System and method for adapting to changing constraints
KR102488281B1 (ko) * 2020-03-30 2023-01-13 주식회사 모빌린트 인공신경망의 활성값 및 가중값의 정밀도를 적응적으로 제어하는 방법 및 그 장치
CN113688851B (zh) * 2020-05-18 2023-09-15 华为云计算技术有限公司 数据标注方法和装置和精细粒度识别方法和装置
CN111738419B (zh) * 2020-06-19 2024-01-12 北京百度网讯科技有限公司 神经网络模型的量化方法和装置
CN111783957B (zh) * 2020-07-02 2024-05-03 厦门美图之家科技有限公司 模型量化训练方法、装置、机器可读存储介质及电子设备
CN111831354B (zh) * 2020-07-09 2023-05-16 北京灵汐科技有限公司 数据精度配置方法、装置、芯片、芯片阵列、设备及介质
JP6992864B1 (ja) 2020-09-28 2022-01-13 沖電気工業株式会社 ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
US20220121947A1 (en) * 2020-10-20 2022-04-21 Samsung Electronics Co., Ltd. Method and system for secure, accurate and fast neural network inference
CN112311488A (zh) * 2020-11-05 2021-02-02 上海应用技术大学 基于小波分解的频谱感知方法
KR102314864B1 (ko) * 2021-03-29 2021-10-19 주식회사 리트빅 차량운전 상태정보를 이용한 에지 딥러닝 기반의 차량 안전운전 시스템
KR20220147398A (ko) * 2021-04-27 2022-11-03 삼성전자주식회사 인공 지능 모델에 기반하여 데이터를 처리하는 전자 장치 및 그 동작 방법
JP7187065B1 (ja) 2021-06-25 2022-12-12 株式会社モルフォ 計算手法決定システム、計算手法決定方法、及び、計算手法決定プログラム
KR102590993B1 (ko) * 2021-09-03 2023-10-19 한국전자기술연구원 적응형 배치 프로세싱 방법 및 시스템
CN113872873B (zh) * 2021-09-29 2023-05-02 西安交通大学 一种适合5g新应用的多场景跨层拥塞控制方法
WO2023120205A1 (ja) * 2021-12-24 2023-06-29 ソニーセミコンダクタソリューションズ株式会社 推論装置、推論方法及び推論プログラム
KR20230124503A (ko) * 2022-02-18 2023-08-25 인텔렉추얼디스커버리 주식회사 특징맵 압축 방법 및 장치
WO2023184359A1 (en) * 2022-03-31 2023-10-05 Qualcomm Incorporated System and method for image processing using mixed inference precision
WO2024063524A1 (ko) * 2022-09-21 2024-03-28 엘지전자 주식회사 무선 통신 시스템에서 온라인 학습을 수행하기 위한 장치 및 방법
CN116381536B (zh) * 2023-03-07 2024-03-19 华中科技大学 一种基于回归元学习的锂电池健康状态预测的方法及系统
CN116129249B (zh) * 2023-04-04 2023-07-07 上海燧原科技有限公司 一种图像处理方法、装置、电子设备和存储介质
CN116451757B (zh) * 2023-06-19 2023-09-08 山东浪潮科学研究院有限公司 一种神经网络模型的异构加速方法、装置、设备及介质
CN117033733B (zh) * 2023-10-09 2023-12-22 北京民谐文化传播有限公司 图书馆资源的智能自动分类与标签生成系统及方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628323A (ja) * 1992-07-06 1994-02-04 Nippon Telegr & Teleph Corp <Ntt> プロセス実行制御方法
US20150242741A1 (en) * 2014-02-21 2015-08-27 Qualcomm Incorporated In situ neural network co-processing
US11106973B2 (en) * 2016-03-16 2021-08-31 Hong Kong Applied Science and Technology Research Institute Company Limited Method and system for bit-depth reduction in artificial neural networks
GB201607713D0 (en) * 2016-05-03 2016-06-15 Imagination Tech Ltd Convolutional neural network
KR102329590B1 (ko) * 2018-03-19 2021-11-19 에스알아이 인터내셔널 딥 신경망들의 동적 적응

Similar Documents

Publication Publication Date Title
JP2019164793A5 (ja)
EP3474194B1 (en) Method and apparatus with neural network parameter quantization
KR20200004700A (ko) 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치
CN105719001B (zh) 使用散列的神经网络中的大规模分类
US10460230B2 (en) Reducing computations in a neural network
US11861474B2 (en) Dynamic placement of computation sub-graphs
KR20190044878A (ko) 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치
EP3602419B1 (en) Neural network optimizer search
US11842178B2 (en) Compiler-level general matrix multiplication configuration optimization
US11120333B2 (en) Optimization of model generation in deep learning neural networks using smarter gradient descent calibration
CN110008952B (zh) 一种目标识别方法及设备
US10579334B2 (en) Block floating point computations using shared exponents
Billups et al. Derivative-free optimization of expensive functions with computational error using weighted regression
US20200097822A1 (en) Dropout for accelerated deep learning in heterogeneous architectures
US11551087B2 (en) Information processor, information processing method, and storage medium
JP7294017B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN114830137A (zh) 用于生成预测模型的方法和系统
US20210216867A1 (en) Information processing apparatus, neural network computation program, and neural network computation method
CN113657595B (zh) 基于神经网络实时剪枝的神经网络加速器
KR102559605B1 (ko) 함수 최적화 방법 및 장치
CN115564022A (zh) 弹性调节算力的预测方法和装置
JP7455773B2 (ja) 求解装置およびプログラム
JP2009265729A (ja) 推定装置および方法、並びにプログラム
US11410036B2 (en) Arithmetic processing apparatus, control method, and non-transitory computer-readable recording medium having stored therein control program
CN110852361A (zh) 基于改进深度神经网络的图像分类方法、装置与电子设备